1.
미국 골드만삭스가 6월 23일 만 여명에 달하는 직원들에게 사내 AI시스템을 개방하였습니다. 이름은 GS AI Asistance입니다.
The move follows more than a year of internal development and testing that involved over 10,000 employees piloting the tool. The GS AI Assistant is a conversational AI interface that allows employees to safely interact with large language models like GPT and Gemini, firewalled within Goldman’s own secure compliance framework.
“We have been developing AI and machine learning applications and infrastructure for a number of years, including several generative AI-powered tools that have been transforming the way we work,” said Chief Information Officer Marco Argenti in a memo seen by Gizmodo.
These tools include a developer copilot for coding, a translation tool for internal teams, and a fledgling “Banker Copilot” designed to streamline workflows for investment bankers. The GS AI Assistant, however, is the first generative AI system to be rolled out across the entire company. The official purpose is to help employees manage tasks like summarizing complex documents, drafting content, and analyzing data, work that can consume hours of human time.
Goldman Sachs Makes a Huge AI Bet중에서
What DeepSeek really means for business에서 소개한 GS AI Asistance입니다.
Goldman’s Go-Fers
Use Case: AI Assistant
Vendor: Meta, OpenAI, Google
Bank: Goldman SachsWhy it’s interesting: Rolled out to 10,000 employees, the GS AI assistant can translate code between languages and summarize or proofread emails – all part of what CIO Marco Argenti calls phase one in creating an agent that will be able to “do things like a Goldman employee.” Depending on the task, the tool orchestrates between ChatGPT, Gemini and Llama, a balancing act between the customization and security capabilities of open source and the higher performance levels that come with flagship off-the-shelf models from vendors.
위 글을 읽어보면 요즘 AI, 요즘 월스트리트 – Agentic Bank에서 이야기한 Agent기술, Orchestration기술을 적용하였습니다. 골드만삭스에서 AI프로젝트를 책임지는 사람이 CIO인 Marco Argenti입니다.
2.
Marco Argenti가 AI시대를 맞아서 엔지니어에게 건낸 글이 있습니다. 하바드비즈니스리뷰에 실린 글입니다.
Why Engineers Should Study Philosophy
저는 최근 대학생인 딸에게 이런 말을 했습니다
“엔지니어링 분야에서 경력을 쌓고 싶다면 전통적인 엔지니어링 교과 과정 외에도 철학을 배우는 데 집중해야 한다고”
왜 그럴까요? 코드를 개선할 수 있기 때문입니다.
엔지니어의 입장에서 보면 반직관적으로 보일 수도 있지만, 해결하고자 하는 문제에 대한 명확한 정신 모델을 개발하고 방법을 연구하기 전에 이유를 이해하는 능력은 특히 AI 시대에 점점 더 중요한 기술입니다.
코딩은 AI가 가장 잘하는 일 중 하나입니다. 종종 AI는 인간보다 더 높은 품질의 코드를 작성할 수 있으며, 그 능력은 빠르게 향상되고 있습니다. 컴퓨터 언어는 인간의 언어보다 훨씬 더 제한된 어휘를 사용합니다. 그리고 AI 모델의 복잡성은 AI가 이해하는 언어를 나타내는 기호의 세계에 따라 4제곱으로 증가하기 때문에 어휘가 적을수록 더 빠르고 더 나은 결과를 얻을 수 있습니다.
하지만 여기에는 한 가지 문제가 있습니다: 인공지능이 만든 코드는 구문론적, 의미론적으로는 정확할 수 있지만 기능적으로는 정확하지 않을 수 있습니다. 즉, 잘 작동할 수는 있지만 원하는 작업을 수행하지 못할 수도 있습니다. 모델의 출력은 프롬프트가 작성되는 방식에 매우 민감합니다. 프롬프트의 표시를 놓치면 AI는 기껏해야 그럴듯하지만 최악의 경우 부정확하고 위험한 코드를 생성하게 됩니다.
이 단계에서는 과학이라기보다는 예술에 가까운 ‘프롬프트 엔지니어링’이라는 새로운 분야에서 사용자는 간결하고 표현력이 뛰어나며 AI가 원하는 작업을 효과적으로 수행할 수 있는 프롬프트를 직접 작성하는 방법을 배웁니다. 프롬프트에 여러 가지 예시를 추가하여 AI를 올바른 길로 안내하고 때로는 질문과 답변을 추가하는 ‘단답형 프롬프트’와 같은 다양한 기법이 존재합니다. 예를 들어, 소수 샷 프롬프트를 사용한 감성 분석의 경우, 사용자는 “실적 발표 문장의 감성 분석”과 같은 프롬프트와 함께 “전망 개선: 긍정적“ 또는 ”수요 둔화: 부정적”과 같은 구체적인 예시를 입력하면 AI가 패턴과 맥락을 이해하여 예시를 기반으로 정확한 감정 분석을 생성할 수 있습니다.
수십 년간 엔지니어링 팀을 관리하면서 제가 배운 가장 중요한 기술 중 하나는 올바른 질문을 하는 것입니다. 이는 AI에서도 마찬가지입니다. 대규모 언어 모델(LLM)의 출력 품질은 프롬프트의 품질에 매우 민감합니다. 모호하거나 제대로 형성되지 않은 질문은 AI가 사용자가 실제로 묻는 질문을 추측하게 만들고, 그 결과 부정확하거나 심지어 완전히 만들어진 답변(흔히 ‘환각’이라고 부르는 현상)을 얻을 확률이 높아집니다. 따라서 AI를 최대한 활용하려면 무엇보다도 추론, 논리, 제1원칙적 사고 등 철학적 훈련을 통해 개발된 기본 기술을 습득해야 합니다. “코딩할 수 있는가?”라는 질문은 “올바른 질문을 통해 AI로부터 최고의 코드를 얻을 수 있는가?”라는 질문이 될 것입니다.
조금 더 확대해 보면, AI의 성능이 사용자가 AI에 질문하는 멘탈 모델의 품질에 의존한다는 것은 저자와 독자의 관계, 그리고 일반적으로 지식에 대한 우리의 관계에 근본적인 변화가 있음을 시사합니다. 이는 어찌 보면 책의 대량 생산을 통해 정보의 민주화를 이룬 인쇄기의 발명과 도서관과 대학의 탄생과 유사합니다. 예를 들어 인쇄기 이전에는 수학을 배우려면 수학자를 직접 만나거나 큰 비용을 지불하고 직접 복사한 텍스트를 접해야 했습니다. 인쇄된 책은 이러한 장벽을 훨씬 낮췄고, 인터넷은 그 장벽을 사실상 제로로 만들었습니다. 하지만 여전히 저자와 독자 사이의 지식 격차라는 장벽은 남아있었습니다. 전 세계의 어떤 논문이나 책도 접근할 수 있지만, 이해하지 못하면 아무 소용이 없습니다.
AI와 함께 작업하면 저자의 개념과 마찬가지로 그 관계도 달라집니다. LLM은 독자의 프롬프트에서 힌트를 얻어 독자의 지식과 이해 수준에 맞게 콘텐츠를 조정합니다. 독자의 프롬프트는 AI가 콘텐츠를 생성하도록 트리거하는 씨앗으로, 학습 데이터의 작품을 바탕으로 해당 사용자를 위해 특별히 새로운 텍스트를 생성하므로 독자는 어떤 의미에서 소비자인 동시에 저자이기도 합니다. 수학의 예를 들어 미적분학의 극한 개념을 이해하고 싶다면 고등학생이나 대학생을 대상으로 하는 교과서를 찾거나 현재 자신의 이해 수준에 맞는 자료를 인터넷에서 찾아볼 수 있습니다. 반면에 AI 모델은 사용자의 이해 수준과 학습 스타일에 맞는 개인화된 적응형 교육을 제공할 수 있습니다. 학습의 최고 표준인 개인 맞춤형 과외가 모든 사람에게 제공될 수 있는 미래가 올 수도 있습니다. 그 결과는 상상할 수 없을 정도로 엄청날 것입니다.
생성적 AI는 지식과의 관계를 변화시켜 지식에 대한 접근성을 제공할 뿐만 아니라 맞춤형 접근 방식으로 지식을 설명하는 장벽을 낮춥니다. 이는 사용자의 지식 수준과 특정 주제를 공략하는 데 필요한 지식 수준 사이에 완만한 경사를 만들어 줍니다. 그러나 적절하게 맞춤화되고 더 중요한 것은 정확한 지식에 접근할 수 있는 능력은 사용자로부터 시작하여 사용자로부터 끝납니다. 지식의 획득이 쉬워지면서 추론은 점점 더 중요해지고 있습니다. 하지만 이러한 철학적 사고 능력의 사용은 원하는 결과를 얻는다고 해서 끝나는 것이 아니라 아직 작업이 끝나지 않았습니다. 아시다시피 인공지능은 실수를 할 수 있으며, 특히 잘못된 결과를 그럴듯하게 보이게 만드는 데 능숙하기 때문에 진실을 분별하는 능력은 매우 중요한 기술 중 하나입니다. 우리가 원하는 적절하고 정확한 정보를 얻을 수 있는 책임감 있는 방식으로 기술을 활용하기 위해서는 전체 여정에서 철학적 사고방식과 건강한 회의론과 상식을 가지고 이끌어가야 합니다.
컴퓨터 프로그램을 만들려면 스위치를 물리적으로 뒤집거나 종이 카드에 구멍을 뚫어야 했던 시기가 있었습니다. 이러한 제작 과정은 컴퓨터가 얼마나 많은 비트의 메모리 또는 레지스터를 보유하고 있는지에 따라 복잡하게 얽혀 있었습니다. 수십억 개의 트랜지스터와 수조 개의 메모리 셀로 인해 소프트웨어 창작 과정은 기본 하드웨어의 복잡성을 추상화할 수 있는 컴퓨터 언어를 만들어 개발자가 알고리즘의 품질과 1과 0에 거의 전적으로 집중할 수 있게 되면서 점점 더 높은 수준으로 올라가야 했습니다.
오늘날 우리는 컴퓨터(즉, AI)가 우리가 말하는 언어와 컴퓨터가 이해하는 언어 사이의 중간 단계의 번역이 필요하지 않은 시점에 와 있습니다. 우리는 로제타 스톤을 제쳐두고 컴퓨터에게 영어를 말할 수 있습니다. 컴퓨터는 우리가 파이썬으로 말할 때와 마찬가지로 잘 이해할 것입니다. 여기에는 두 가지 선택지가 있습니다: 게으름을 피우거나 생각을 높일 수 있습니다.
언어가 더 이상 장벽이 되지 않을 때, 우리는 인간 언어의 완전한 표현력을 활용하여 AI에 더 높은 개념과 논리를 전달할 수 있으며, 이는 선언적(얻고자 하는 결과에 집중)과 명령적(도달하는 방법에 집중) 방식으로 가장 간결하고 효과적인 방식으로 우리의 요청을 포착할 수 있습니다. 명령형: 좌회전, 직진, 다시 좌회전, 그리고 (1,000번). 선언적: 집에 데려다주세요. 저는 소셜 미디어에서 아주 최근까지만 해도 몇 달이 걸렸을 게임을 능숙하게 작성한 몇 개의 프롬프트만으로 게임 전체를 만드는 사람들을 보았습니다.
다시 원래의 요점으로 돌아가서, 문제에 대한 명확한 멘탈 모델을 가지고, 문제를 실행 가능한 단계로 세분화할 수 있으며, 완벽한 원초적 사고를 하고, 때로는 완고한 인공지능과 토론할 준비가 되어 있고, 토론할 수 있는 능력은 미래에 훌륭한 엔지니어가 될 수 있는 기술이며, 많은 직종에 동일한 고려 사항이 적용될 수 있습니다.
필요할 때 후드를 열어 AI가 놓친 부분을 수정하거나 AI가 만든 것을 감사할 수 있는 (중요한) 위치에 있는 능력을 잃고 싶지 않습니다. 이는 인간에게 정말 큰 문제가 될 수 있으며, 우리는 그런 일이 일어나지 않도록 최소한 AI를 구축해야 합니다. 하지만 이는 부분적으로만 가능한 일입니다. 코드 작성의 메커니즘을 자동화하고 비판적 사고 능력에 집중한다면 우리는 더 많은 것을 더 빨리 만들어내고 세상에 더 큰 영향을 미칠 수 있을 것입니다. AI의 도움으로 우리는 컴퓨터가 아닌 인간이 될 수 있습니다.
