요즘 AI, 요즘 월스트리트 – STAC 2025

1.
STAC.
금융기술과 관련하여 아주 유명한 회사입니다. 그리고 장소를 바꿔가면서 STAC Summit을 분기별로 개최합니다. Low Latency와 관련한 측정방법론으로 한 시대를 풍미했습니다. 그리고 뒷편으로 살아질 줄 알았습니다. 비슷한 경험이 Tabforum입니다. 어느날부터 디지탈자산과 관련한 글을 많아지고 인증정책도 이상해집니다. 그리고 발을 끊었습니다.

STAC의 메일을 가끔 받습니다 받을 때마다 놀랍니다. 어느 순간부터 Low Latency를 AI로 확장하면서 AI와 관련한 최신 기술, 금융과 관련한 최신 기술을 소개하기 때문입니다.

Inference (STAC-ML)
STAC-ML Markets (Inference) Test Harness
STAC-ML Markets (Inference) Reference Implementation (ONNX & TensorFlow)
STAC-ML Pack for CUDA and cuDNN
STAC-ML Pack for Myrtle.ai VOLLO
STAC-ML Pack for GroqWare

위는 STAC가 제공하는 머신런닝과 관련한 방법론입니다.

오늘 받은 메일속에서 흥미로운 주제가 있었습니다. 25년 가을 행사때 발표주제입니다.

첫번째는 FPGA와 GPT를 연결하는 기술입니다. RaptorSilicon은 FPGA와 관련한 EDA를 오픈소스로 제공합니다.

Rapid Silicon Raptor Design Suite

이런 기술을 이용하여 FPGA를 개발할 때 AI지원을 받을 수 있는 서비스를 내놓았는데 RapidGPT입니다.

두번째는 Algoteq의 시뮬레이션기술입니다. 회사 소개를 보면 일반적인 트레이딩시스템을 개발공급하는 회사입니다. 한국으로 이야기하면 기관투자자용 OMS를 개발하는 회사입니다. 이 회사를 STAC 행사에서 소개하는 이유는 시뮬레이션기술입니다.

Agent-based artificial markets to test, refine, and validate trading strategies

자세한 내용은 나오지 않았지만 SSRN이나 arXiv로 논문 제목을 보면 Agent, Simulation을 주제로 논문이 작지 않습니다. A Brief Review of recent Artificial Market Simulation (Agent-Based Model, ABM) Studies for Financial Market Regulations and/or Rules을 보면 ACM International Conference on AI in Finance에서 ‘artificial market models to test new automated trades, high frequency trades and marketimpacts by an trade-execution algorithm’을 주제로 다룬 다수의 논문을 소개하고 있습니다.

Download (PDF, 149KB)

세번째는 Re(Visiting) Large Language Models in Finance을 쓴 Eghbal Rahimikia입니다. 2007년부터 2023년까지의 금융데이타를 가지고 LLM을 재훈련한 후 포트폴리오의 성과를 분석하였습니다. 논문이 Look Ahead Bias(아래 번역에서는 미래 예측 편향)의 가능성을 가조합니다.

이 연구는 회계 및 금융 분야를 위한 전문적인 대규모 언어 모델(LLM) 개발의 효과성을 평가합니다. 고품질의 분야별 역사적 데이터로 사전 훈련된 이 모델들은 미래 예측 편향을 완화함으로써, 얻어진 결과가 잠재적인 정보 유출로 인해 손상되지 않도록 보장하는 것을 목표로 했습니다. 다양한 텍스트 데이터셋이 활용되었으며, 이는 뉴스 기사, 규제 서류, 지적 재산권 기록, 주요 기업 정보,유럽 중앙은행(ECB)과 연방준비제도(FED)의 연설, 기업 행사 녹취록, 이사회 구성원 정보, 일반 지식을 위한 위키피디아 등을 포함하며, 2007년부터 2023년까지의 기간을 커버합니다. 특히, 이 기간 내 각 연도별로 별도의 모델이 사전 훈련되었습니다.사전 훈련된 모델은 RoBERTa 아키텍처를 기반으로 하며, 약 1억 2,500만 개의 매개변수를 가진 기본 모델과 5,100만 개의 매개변수를 가진 작은 변형 모델을 포함해 총 34개의 사전 훈련된 대규모 언어 모델(LLM)을 포함합니다.

FinText라고 불리는 이 모델들은 규모가 훨씬 작음에도 불구하고 LLaMA 1, 2, 3을 포함한 최신 LLM보다 일관되게 우수한 성능을 보여주었습니다. 자산 가격 결정 맥락에서 제로 넷 투자 포트폴리오를 구성함으로써 FinText는 3.45의 샤프 비율을 달성했으며, 이는 모델의 전문성과 데이터의 중요성이 단순한 모델 크기보다 우월함을 강조합니다. FinText 모델은 일반 목적 LLM에 비해 우수한 성능을 보여줄 뿐만 아니라 FarmPredict, FinBERT, LMD와 같은 전문 금융 모델을 일관되게 초과했습니다. 이러한 결과를 더욱 입증하기 위해 분석을 확장하여 거래 비용을 고려한 알파 조정 포트폴리오를 구성하고 이러한 LLM의 대체 구성 옵션을 탐구했습니다. 이러한 구성에는 더 작은 모델 크기, 더 긴 사전 훈련 기간, 다양한 포트폴리오 거래 규모를 포함한 모델들이 포함되었습니다. 모든 경우에서 결과는 초기 결론을 강화했습니다. 또한 FinText 모델은 거래 목적으로 미세 조정되었으며, 만족스러운 성능을 달성했지만, 더 간단한 두 단계 모델링 접근 방식이 계속해서 이를 초과했습니다.

이 연구는 언어 수준부터 포트폴리오 수준까지 다양한 수준에서 미래 예측 편향을 체계적으로 분석합니다. 연구 결과는 언어 수준에서 미래 예측 편향이 존재할 가능성을 보여줍니다. 또한 이 연구는 미래 예측 편향이 분류 수준에서 결과에 심각한 왜곡을 초래할 수 있지만, 후처리 단계의 누적 효과로 인해 포트폴리오 수준에서는 그 영향력이 감소함을 보여줍니다. 역사적 데이터만으로 훈련된 FinText 모델을 활용함으로써 이 연구는 이러한 편향을 효과적으로 완화합니다. 따라서 우리는 회계 및 금융 분야에서 LLM을 적용할 때, 특히 과거 데이터를 사용할 때 미래 예측 편향을 해결하는 것이 중요함을 강조합니다. 이러한 편향을 고려하지 않으면 분석의 정확성과 신뢰성이 훼손될 위험이 있습니다.

FinText와 같은 모델의 장점은 효율적인 설계로, 제한된 계산 자원이나 고급 GPU에 대한 접근이 제한된 환경에서도 효과적으로 작동할 수 있다는 점입니다. LLaMA와 같은 대규모 모델과 달리, FinText의 더 컴팩트한 아키텍처는 XAI 방법의 통합을 용이하게 했습니다. 이 통합은 모델의 결정 과정에 대한 더 깊은 통찰을 제공했으며, 장기 및 단기 포트폴리오 레그에 대한 예측에 영향을 미치는 특정 토큰 그룹을 식별할 수 있게 함으로써 모델의 전체적인 해석 가능성을 향상시켰습니다.우리의 연구 결과는 각 포트폴리오 다리에서 의미 있는 토큰 조합이 존재하지만, 긍정적 또는 부정적 감정으로 쉽게 분류할 수 없는 토큰의 포함은 언어 모델링의 복잡성을 강조합니다. 이 복잡성은 토큰을 고립된 상태로 모델링하는 전통적인 접근 방식을 넘어 확장됩니다.

FinText와 같은 전문 언어 모델은 연구 범위를 확장함으로써 연구를 진전시키는 데 중요한 기회를 제공합니다. 이 모델들은 일반 목적의 대규모 언어 모델(LLM)에 비해 규모가 더 관리하기 쉬우며, 특정 연구 목표에 맞게 적용되거나 미세 조정될 수 있어 회계, 금융 및 관련 분야(경제학, 경영학, 마케팅, 관리학 등)에서의 실증 연구에서 정확성과 관련성을 향상시킬 수 있습니다. 더 타겟팅된 분석을 가능하게 함으로써, 이 모델들은 도메인 특정 텍스트 데이터의 활용 방식을 혁신적으로 변화시킬 수 있으며, 실증 연구를 진전시키는 데 새로운 통찰력을 제공할 수 있습니다.

논문에 등장하는 FinText는 허깅페이스에 등록되었습니다.

FinText: A Specialised Financial LLM Repository

Download (PDF, 2.5MB)

Look-Ahead Bias in Large Language Models (LLMs): Implications and Applications in Finance은 Look Ahead Bias를 짧게 분석한 논문입니다.

Download (PDF, 131KB)

Leave a Comment

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다

이 사이트는 Akismet을 사용하여 스팸을 줄입니다. 댓글 데이터가 어떻게 처리되는지 알아보세요.