1.
대한민국 국회가 주최한 청문회가 아닙니다. 국회가 이런 일에 관심을 가질 리 만무합니다. 티가 나지 않는 주제이기때문입니다. 그렇다고 연구기관이 주최한 청문회도 아닙니다. 청문회(공청회)를 하지 않겠죠. 세미나나 워크샵을 하겠죠. 무언가 새로운 관점을 제시하는 것처럼 포장을 하기 위해서..
공청회의 정식명칭은 The Impact of AI on Capital Markets and Jobs in the Financial Services Industry.입니다. 미국이 Flash Crash로 떠들썩 하던 때도 HFT를 주제로 청문회를 개최하였던 기억이 있습니다. 아마도 미국 의회가 가지는 권한이 한국과 다를 수도 있는 것이 원인이 아닐까 합니다.
위 공청회에 참석한 증인들은 다음과 같습니다.
Dr. Charlton McIlwain,Vice Provost for Faculty Engagement and Development and Professor of Media, Culture, and Communication at NYU
Dr. Marcos Lopez de Prado, Professor of Practice, Engineering School, Cornell University and Chief Investment Officer, True Positive Technologies
Ms. Rebecca Fender, CFA, Senior Director, Future of Finance, Chartered Financial Analyst Institute
Ms. Kirsten Wegner, Chief Executive Officer, Modern Markets Initiative
Ms. Martina Rejsjö, Head of Nasdaq Market Surveillance, Nasdaq Stock Market
Modern Markets Initiative는 HFT를 옹호하기 위해 만든 단체이고 Marcos Lopez de Prado는 Advances in Financial Machine Learning에서 소개하였던 분입니다. Nasdaq은 소개가 필요없고 CFA는 해외 자료를 많이 보시는 분들은 익히 알고 있는 단체들입니다. 발표문을 대략 살펴보면 그동안 AI를 주제로 다루었던 내용을 모두 포괄하고 있습니다.
먼저 CFA의 발표문은 AI와 자본시장을 총론적으로 다룹니다. 현황을 소개하는 도표가 다수 등장합니다.
Nasdaq의 주제문은 시장감시에 AI를 어떻게 적용하였는지를 다룹니다. 한국거래소가 도입하였다고 발표하였고 해외거래소들도 관련한 제품을 판매하고 있는 AI기반의 시장감시시스템을 이야기합니다.
MMI의 발표문은 당연히 HFT나 알고리즘매매와 관련한 주제를 다룹니다.
2.
이 분들은 산업을 대표하여 패널로 참석하였습니다. 나머지 분들은 학계를 대표한다고 할 수 있는데, 논문에 자주 등장하는 표현이 Algorithmic Bias(알고리즘편향)입니다.
4. Algorithms and bias
Financial professionals are confronted with conflicts of interest every day: in granting a loan, classifying a company, recruiting talent, predicting earnings, forecasting inflation, etc. When these individuals are asked to make judgment calls, there is a risk that they fail to comply with their fiduciary duties, or that they impose their biases on others.
In some situations, investors may be better served when a machine makes the calls, based on facts learned from hard data. Furthermore, machines will comply with the law, always, when programmed to do so. This does not mean that algorithms will make flawless decisions. When trained incorrectly, ML algorithms can incorporate human biases. The good news is, we have a better chance at detecting the presence of biases in algorithms, and measure that bias with greater accuracy than on humans, because we can subject algorithms to a batch of blind randomized controlled experiments. It is easier to monitor and improve an algorithmic decision process than one relying entirely on humans. Algorithms can assist human decision-makers by providing a baseline recommendation that humans can override, thus exposing potential biases in humans.
국내에 ‘페미니즘 인공지능: 오해와 편견의 컴퓨터 역사 뒤집기’로 번역된 Artificial Unintelligence:How Computers Misunderstand the World가 소개한 사례입니다.
책은 첨단 기술의 엄청난 데이터와 정보, 경험을 토대로 개발돼 객관적이고 공정하며 완전할 것 같지만, 그렇지 않다는 사실이 여러 사례를 통해 나타나고 있음을 보여준다.예를 들어 미국 법원이 선고 과정에서 ‘COMPAS’라는 알고리즘을 사용했는데, 아프리카계 미국인들에게 불리한 결과를 낸다는 사실이 2016년 언론 보도를 통해 밝혀진다. COMPAS는 경찰이 체포한 사람들을 대상으로 한 설문조사를 분석해 응답자의 범죄 재발 가능성을 예측하는 점수를 내는 일종의 인공지능(AI) 프로그램으로, 판사들은 ‘객관적 판결’의 근거로 이 점수를 썼다. 하지만 그 결과는 흑인이 백인보다 더 긴 형기를 선고받는 불공정함으로 이어졌다.브루서드는 “COMAS 설계자들이 기술 지상주의에 눈이 멀어 알고리즘의 해악성을 인지하지 못했다”며 “컴퓨터에 의해 생성된 판단이 사람의 판단보다 낫거나 공정하다고 믿으면, 시스템에 입력되는 것들의 타당성을 따져보지 않게 된다”고 비판한다.
‘백인 남성’ 만을 위한 테크놀로지? 쫄지 말고 뒤집자중에서
패널들은 하나의 예로 P2P 신용대출 혹은 빅데이타를 이용한 신용대출에서 일어날 수 있는 편향성을 지적합니다. 미국의 경우 인종적 편향을 반영한 데이타를 이용한 알고리즘일 경우 흑인은 알고리즘적 편향에 의해 불이익을 받습니다. 이와 같은 것이요. 예를 들어 강남에 사는 분과 안양에 사는 분의 신용을 평가할 때 어떤 모형은 지역만으로 더많은 점수를 강남에 줄 수 있습니다. 지역적 편향이죠.
앞선 도서중에 있는 문장입니다.
“컴퓨터 시스템은 그것을 만드는 사람들을 대변한다”