1.
AI와 관련하여 통찰을 주는 글과 인터뷰를 자주 하는 Andrej Karpathy.
몇 달전 popcast를 통해 Agentic AI와 AGI의 현재를 이야기하였습니다. 페이스북을 보면 수많은 이들이 이를 소개하고 있습니다. 그중 한분입니다. 좋은 글을 많이 소개하는 김성완님입니다. 출처는 Andrej Karpathy — AGI is still a decade away입니다.
김성완님이 정리한 내용입니다.
서론: 현실주의 개발자의 청사진
인공지능(AI)을 둘러싼 담론은 그 어느 때보다 뜨겁습니다. 업계에서는 ‘에이전트의 해(year of agents)’라는 말이 유행처럼 번지며, 마치 마법 같은 도약이 임박한 것처럼 보입니다. 하지만 이 분야의 가장 뛰어난 개발자 중 한 명인 안드레이 카르파시(Andrej Karpathy)는 이러한 분위기에 현실적인 시각을 제시합니다. 그는 ‘에이전트의 해’라는 말을 ‘에이전트의 10년(decade of agents)’으로 정정하며, AI 개발은 단발적인 마법이 아니라 더럽고, 느리고, 점진적인 엔지니어링의 도전 과제임을 상기시킵니다.
이 글은 화려한 수사 뒤에 가려진 AI의 실체를 꿰뚫어 보는, 한 명의 ‘빌더(builder)’로서 카르파시가 제시하는 통찰 5가지를 심도 있게 분석합니다. 이는 단순한 의견이 아니라, 그의 실용주의적 세계관을 구성하는 상호 연결된 핵심 요소들입니다.1. AI는 동물이 아니라 유령이다
카르파시는 AI를 동물 지능에 직접 비유하는 것에 신중한 반대 입장을 취합니다. 이는 리처드 서튼(Richard Sutton)과 같이 AI를 ‘동물처럼’ 만들려는 패러다임에 대한 중요한 반론입니다. 카르파시에 따르면, 동물은 우리가 현재 기술로 복제할 수 없는 ‘진화’라는 외부 최적화 루프의 산물이며, 태어날 때부터 막대한 양의 하드웨어가 내재되어 있습니다.
반면, AI는 본질적으로 디지털이며 인터넷에 존재하는 방대한 인간 데이터를 모방하여 학습하는 ‘유령 같은 영적 존재(ethereal spirit entities)’에 가깝습니다. 이 구분은 AI를 근본적으로 ‘다른 종류의 지능’으로 재정의합니다. 이는 단순히 자연을 모방하는 것만이 최선의 길이 아닐 수 있으며, AI 고유의 특성을 이해하는 것이 더 중요함을 시사합니다.
“우리는 동물을 만드는 것이 아니라 유령을 만들고 있습니다… 이들은 완전히 디지털이기 때문에 마치 영적인 존재와 같으며, 인간을 모방하는 다른 종류의 지능입니다.”2. 강화학습은 ‘끔찍’하다
카르파시는 강화학습(RL)이 ‘끔찍하다’는 도발적인 주장을 합니다. 물론 그는 그 이전의 모방 학습(instructGPT 등)이 ‘기적적’인 발전이었으며, 강화학습이 인간의 예시를 넘어선 해결책을 발견할 수 있게 해준다는 점에서 더 나은 단계임을 인정합니다. 하지만 그 본질적인 메커니즘은 매우 비효율적이라고 비판합니다.
그는 강화학습을 ‘빨대를 통해 감독(supervision)을 빨아들이는 것’에 비유합니다. 이 비유를 구체화하기 위해 그는 수학 문제를 푸는 상황을 예로 듭니다. 모델이 100가지 다른 접근법을 시도하여 그중 하나가 정답에 도달했다고 가정해 봅시다. 강화학습은 정답에 이른 그 경로상의 모든 토큰에 긍정적인 가중치를 부여합니다. 여기에는 도중에 저지른 실수나 잘못된 추론 과정까지 포함됩니다. 이처럼 단 하나의 최종 보상 신호(성공/실패)로 전체 과정을 평가하는 것은 극도로 잡음이 많고 비효율적인 학습 방식입니다. 이는 자신의 과정을 되돌아보며 특정 실수와 성공 요인을 명확히 구분하는 인간의 섬세한 학습 방식과는 극명한 대조를 이룹니다.
“강화학습은 끔찍합니다. 다만 그 이전에 우리가 가졌던 모든 것이 훨씬 더 나빴을 뿐입니다… 당신은 빨대를 통해 감독을 빨아들이고 있는 겁니다.”3. AI의 방대한 지식은 장점이 아닌 버그일 수 있다
대규모 언어 모델(LLM)이 암기한 방대한 지식이 사실은 약점일 수 있다는 카르파시의 생각은 매우 놀랍습니다. 그는 이 지식을 인터넷에 대한 ‘어렴풋한 회상(hazy recollection)’에 불과하다고 평가합니다.
그는 사전 훈련 과정에서 사실 암기와는 별개로 나타나는 순수한 문제 해결 알고리즘과 지능, 즉 ‘인지적 핵심(cognitive core)’이라는 개념을 제시합니다. 그리고 이 핵심을 분리하고 강화하기 위해 “지식의 일부를 제거하는” 방법을 찾아야 한다고 제안합니다. 지식이 적어지면 모델은 암기된 정보에 의존하는 대신, 더 일반화된 방식으로 “패턴을 찾도록 강요받게” 될 것이기 때문입니다.
이 아이디어는 심오한 의미를 가집니다. 더 유능한 AI는 오히려 더 적은 기억을 가진 AI일 수 있다는 것입니다. 이는 일반적이고 유연한 사고 패턴을 유지하기 위해 종종 세부 사항을 잊어버리는 인간의 지능과도 유사합니다. 진정한 지능은 정보의 소유가 아니라, 정보를 처리하는 능력에 있을지도 모릅니다.
“저는 우리가 지식의 일부를 제거하고, 제가 ‘인지적 핵심’이라고 부르는 것을 유지하는 방법을 찾기 시작해야 한다고 생각합니다… 이는 지식은 제거되었지만 알고리즘과 지능, 그리고 문제 해결의 마법을 담고 있는 지적 존재입니다.”4. ‘지능 폭발’은 이미 시작됐고, 사실 꽤 평범하다
카르파시는 우리가 이미 수 세기 동안 ‘지능 폭발’의 시대를 살아왔다고 주장합니다. 그는 AI를 세상을 바꾸는 단일 사건이 아니라, 컴파일러, 검색 엔진, 산업 혁명 등을 포함하는 오랜 자동화 추세의 연장선으로 봅니다.
그는 이것이 GDP 곡선에서 컴퓨터나 아이폰 같은 혁신적인 기술의 등장으로 인한 급격한 상승 지점을 찾아볼 수 없는 이유라고 설명합니다. 기술의 사회적 확산은 점진적이며, 그 효과는 수많은 다른 요소와 섞여 평균화되기 때문입니다. 이 관점은 ‘특이점’이나 ‘급격한 도약’ 시나리오와는 대조적입니다. 카르파시의 ‘늘 하던 대로(business as usual)’라는 프레임은 AI가 사회에 미치는 영향이 극적이기보다는 더 부드럽고 통합적으로 진화할 것임을 시사합니다.
“이것은 늘 하던 대로의 일입니다. 왜냐하면 우리는 이미 수십 년 동안 지능 폭발 속에 있었기 때문입니다. 모든 것은 수백 년 동안 점진적으로 자동화되어 왔습니다.”5. 진정한 이해는 직접 만드는 것에서만 온다
카르파시의 핵심적인 학습 철학은 “만들 수 없다면, 이해하지 못한 것이다”라는 말로 요약됩니다. 그는 자신의 nanohat 저장소를 직접 만들면서 이 철학을 다시 한번 확인했습니다. 지적으로 새로운 코드를 작성할 때, 고도화된 AI 코딩 에이전트는 거의 도움이 되지 않았습니다.
AI 에이전트들이 실패한 이유는 구체적이었습니다. 첫째, 에이전트들은 그가 PyTorch의 표준적인 DistributedDataParallel(DDP) 컨테이너를 의도적으로 사용하지 않은 독특한 설계를 이해하지 못했습니다. 그들은 계속해서 인터넷에서 흔히 볼 수 있는 상투적인 DDP 해결책을 그의 맞춤형 코드에 강요했습니다. 둘째, 에이전트들은 불필요하고 지나치게 방어적인 try/catch 구문으로 코드를 부풀리며, 간결한 교육용 코드를 마치 거대한 상용 코드베이스처럼 취급했습니다.
이 구체적인 경험은 기술 분야의 모든 이에게 중요한 교훈을 줍니다. 깊고 견고한 지식은 튜토리얼을 보거나 자동화된 도구에 위임하는 수동적인 과정을 통해 얻어지는 것이 아니라, 처음부터 무언가를 직접 만들고 그 과정에서 부딪히는 문제들을 해결해나가는 능동적인 과정을 통해서만 습득됩니다.
“블로그 글을 쓰지 마세요. 슬라이드를 만들지 마세요. 그런 건 아무것도 하지 마세요. 코드를 만들고, 정리하고, 작동하게 만드세요. 그것이 유일한 방법입니다. 그렇지 않으면 당신은 지식을 놓치고 있는 겁니다.”결론: 미래를 위한 현실적인 비전
위의 다섯 가지 통찰을 관통하는 핵심 주제는 명확합니다. 카르파시는 과대광고를 꿰뚫고, 실제로 작동하고 유용한 AI를 만드는 데 무엇이 필요한지에 초점을 맞춘 실용적인 엔지니어의 관점을 제공합니다. 그의 시각은 단기적인 흥분보다는 장기적인 현실에 단단히 발을 딛고 있습니다.
이제 막 시작된 ‘에이전트의 10년’으로 나아가는 지금, 카르파시의 통찰은 우리에게 근본적인 질문을 던집니다. 우리에게 궁극적으로 더 가치 있는 것은 무엇일까요? 모든 것을 아는 AI일까요, 아니면 무엇이든 해결하는 법을 이해하는 AI일까요?** 추가: AI 튜터의 미래와 한국어 학습 경험
Andrej Karpathy는 최근 한국어 학습 경험을 공유하며, 이 경험을 통해 그가 궁극적으로 개발하고자 하는 완벽한 AI 튜터의 기준이 얼마나 높은지 설명했습니다.다음은 그가 언급한 한국어 학습 경험에 대한 내용입니다.1. 한국어 학습 방식의 단계적 변화
Karpathy는 한국어를 배우는 과정에서 여러 단계를 거쳤다고 언급했습니다.
1. 독학: 인터넷을 통해 혼자 한국어를 공부하는 시기.
2. 소규모 수업: 한국에 있는 작은 학원에서 선생님과 약 10명의 다른 학생들과 함께 수업을 들었습니다 (그는 이 경험이 “정말 재미있었다”고 언급했습니다).
3. 일대일 개인 교사: 이후 일대일 튜터에게 배우는 방식으로 전환했습니다.
2. 완벽한 튜터가 제시한 높은 기준그는 일대일 튜터와의 경험이 매우 훌륭했고, 이 경험이 그가 궁극적으로 만들고자 하는 AI 튜터의 높은 기준(high bar)을 설정하는 데 도움이 되었다고 말했습니다.
그가 관찰한 튜터의 놀라운 능력은 다음과 같습니다.* 즉각적인 학생 이해: 튜터는 아주 짧은 대화만으로도 학생의 현 상태(where I am as a student), 즉 무엇을 알고 모르는지를 즉시 파악했습니다.
* 세계 모델 파악: 튜터는 학생의 “세계 모델(world model)”을 이해하기 위해 필요한 종류의 질문이나 사항들을 정확히 던져볼 수 있었습니다. Karpathy는 현재 어떤 LLM도 이 수준에 근접하지 못했다고 강조했습니다.
* 적절한 난이도 제공: 튜터는 항상 학생의 현재 능력 수준에 적절하게 도전적인 자료만 제공했습니다. 즉, 너무 어렵지도 않고 너무 쉽지도 않은(not too hard or too trivial) 자료만을 제공했습니다.
* 학습의 유일한 제약 조건: 튜터가 완벽하게 정보를 제공했기 때문에, 그는 자신의 암기 능력(ability to memorize)과 같은 자기 자신의 능력만이 학습의 유일한 제약 조건이라는 느낌을 받았습니다. 그는 항상 완벽한 정보를 제공받았기 때문에, 방해 요소는 오직 자신뿐이라고 느꼈습니다.3. 교육 자동화에 대한 시사점
Karpathy는 이러한 경험을 통해 학습 과정의 기술적 문제를 해결하고 싶다는 열망을 갖게 되었습니다. 그는 학습을 “사소하고(trivial) 바람직한(desirable)” 활동으로 만드는 것이 기술적인 문제이며, 한국어 튜터가 그랬던 것처럼 제대로 할 경우 학습은 “기분 좋은(feels good)” 경험이 될 수 있다고 믿습니다. 현재의 기술로는 완벽한 AI 튜터를 구축할 시기가 아니라고 생각하지만, 훌륭한 인간 튜터의 기준은 그가 미래에 Eureka 프로젝트를 통해 달성하고자 하는 목표를 정의하는 데 사용되었습니다.
2.
AGI와 관련한 논문은 수없이 많습니다. 제가 읽는 Geeknews를 통해 초록수준에서 접합니다. 그중 제목이 재미있었던 논문입니다.
What the F*ck Is Artificial General Intelligence?
위 논문중 주요한 내용을 [논문 리뷰] What the F*ck Is Artificial General Intelligence?은 아래로 정리합니다.
논문의 핵심 내용:
AGI 정의: AGI를 단순히 인간 수준의 성능을 모방하는 것이 아니라, 제한된 자원 내에서 적응하는 능력으로 정의합니다. 특히, ‘인공 과학자’라는 개념을 제시하며, 이는 자율적으로 가설을 설정하고, 실험을 설계 및 수행하며, 학습하는 능력을 강조합니다.
AGI 구축 도구: AGI 시스템 구축에 필요한 기본적인 도구로서 탐색(Search)과 근사(Approximation)를 제시합니다.
탐색(Search): 문제 구조 내에서 가능한 모든 해를 체계적으로 탐색하는 방법입니다. A*, 제약 만족 문제 해결 등에 사용됩니다. 정확하고 해석 가능한 결과를 제공하지만, 계산 비용이 높고 병렬화에 어려움이 있습니다.
근사(Approximation): 입력과 출력 간의 관계를 근사적으로 학습하는 방법입니다. 심층 신경망, Transformer 모델 등이 대표적입니다. 노이즈에 강하고 병렬화가 용이하지만, 정확도가 떨어지고 해석이 어렵습니다. 샘플 효율성(sample efficiency)과 에너지 효율성(energy efficiency)이 낮다는 단점이 있습니다.논문의 시사점:
AGI 연구는 기술적인 문제 해결뿐만 아니라, 철학적이고 개념적인 이해가 필요합니다.
스케일 최대화 (Scale-Maxing)만으로는 AGI를 달성하기 어려우며, 단순성 최대화 (Simp-Maxing)와 약점 최대화 (W-Maxing)를 함께 고려해야 합니다.
생물학적 시스템의 자기 조직화 원리를 모방하는 것이 AGI 개발에 중요한 영감을 제공할 수 있습니다.
AGI는 단순히 인간을 모방하는 것이 아니라, 다양한 환경에 적응하고 새로운 문제를 해결할 수 있는 범용적인 지능을 구축하는 것을 목표로 해야 합
또다른 논문은 Continual Learning입니다. Continual Learning은 모델이 새로운 정보를 학습하면서 이전에 배운 정보를 유지할 수 있도록 하는 학습 방식을 말합니다. 왜 Continual Learning이 중요한지 정리한 내용입니다.
Continual learning의 필요성
AI는 real-world의 변화에 적응하기 위해 지식을 점진적으로 획득, 업데이트, 누적 및 활용할 수 있어야 한다. 이는 마치 사람이 새로운 경험을 통해 지속적으로 배우고 성장하는 것과 유사하다.Continual learning의 한계와 발전
AI를 통해 기존에 특정 task에 대해 학습했던 모델에 새로운 task의 데이터를 갖고 학습하게 되면, 기존에 갖고 있던 특정 task의 정보가 점점 잊혀지는 현상을 보인다. 이를 catastrophic forgetting이라 한다.
[논문 리뷰] A Comprehensive Survey of Continual Learning중에서
The Continual Learning Problem을 Geeknews를 통해 읽었습니다.
3.
앞서 소개한 김성완님이 Thermodynamic Computing이라는 개념입니다. X에 올라온 “Thermodynamic Computing is here“를 번역한 글입니다.
열역학 컴퓨팅이 도착했다
소음 속에서 새로운 컴퓨팅 패러다임이 떠오르고 있으며, 그 도착은 딥러닝의 여명이나 클라우드 가상화의 등장만큼 중요한 사건일 수 있다. Extropic이라는 새로운 회사가 첫 번째 열역학 컴퓨터를 출시했는데, 그들은 이를 TSU, 즉 Thermal Sampling Unit(열 샘플링 장치)라고 부른다. 웹에는 이미 깊이 있는 기술 분석이 쏟아지고 있지만, 우리 대부분에게 더 중요한 것은 이 기술이 무엇인지, 이전 것들과 근본적으로 어떻게 다른지, 그리고 왜 이렇게 큰 관심을 모으는지에 대한 분명한 직관을 구축하는 일이다. 이것은 단순히 또 하나의 칩이 아니다. 계산 자체를 생각하는 새로운 방식이다.
보는 것이 믿는 것: 퍼즐을 한 번에 푼다TSU가 무엇을 하는지 이해하려면, 악명 높게 어려운 고전적인 컴퓨터 과학 문제 두 가지를 보자: 스도쿠와 여덟 여왕 문제. 우리가 스도쿠를 풀 때, 순차적 논리, 추측과 검증, 그리고 백트래킹 과정을 사용한다. 가정을 세우고, 그 논리적 결론을 따른 다음, 막다른 길에 다다르면 지우고 다시 시도한다. 고전적 컴퓨터도 동일한 일을 훨씬 빠르게 수행할 뿐이다. 그러나 TSU는 이를 완전히 다른 방식으로 접근한다. TSU 시뮬레이터를 사용하면 문제를 “프로그래밍”할 수 있는데, 먼저 알려진 값—이미 보드에 주어진 단서—을 고정(clamp)한다. 그런 다음 제약 조건을 프로그래밍한다: 어떤 행, 열, 3×3 사각형에도 중복 숫자가 없어야 한다. 이렇게 문제가 정의되면, TSU는 해답을 “검색”하지 않는다; 그것을 어닐링(anneal)한다. 단 한 번의 계산 단계에서 해답이 그저 나타나며, 빈 칸이 모두 올바르게 채워진다.
같은 원리가 여덟 여왕 문제에도 적용된다. 체스판 위에 여덟 개의 여왕을 서로 공격할 수 없게 배치하는 도전 과제다. 이는 92개의 서로 다른 해답을 가진 복잡한 조합 최적화 문제다. 고전적 컴퓨터는 이를 반복적으로 탐색해야 한다. 반면 TSU는 제약(같은 행, 열, 대각선상에서의 “상호 비선호” 관계)을 프로그래밍한 후 “해 공간(solution space)”을 샘플링하도록 설정할 수 있다. 이 맥락에서 유효한 해는 “문제 에너지”가 0인 상태다. TSU의 물리적 특성은 이러한 0 에너지 상태를 자연스럽게 찾게 해준다. 이 과정을 시뮬레이션해 보면 TSU가 92개의 모든 고유 해답을 발견하는데, 이는 단지 하나의 답을 찾는 능력을 넘어 모든 올바른 답의 풍경을 탐험할 수 있음을 보여준다. 이는 수십 년간 의존해온 무차별 대입과 반복적 방법을 우회하는 근본적으로 새로운 접근이다.
계산의 물리학: 싸우지 말고, 소음을 써라
이 새로운 힘은 급진적 설계 철학에서 나온다. 지난 70년간 컴퓨팅은 한 가지에 관한 것이었다: 질서. 우리는 결정적이고, 논리적이며, 정밀한 칩을 만든다. 가장 큰 적은 항상 소음, 열, 무작위성이었다. 우리는 이를 제거하기 위해 냉각과 오류 수정에 수십억 달러를 쏟아부었다. 많은 면에서 양자 컴퓨팅은 이러한 접근의 궁극적 표현으로, 모든 열 소음을 제거하고 양자 결맞음을 달성하기 위해 절대영도에 가까운 온도를 요구한다. 열역학 컴퓨팅은 그와 정반대다. 소음과 싸우지 않고, 그것을 사용한다. TSU는 “누설” 트랜지스터에서 나오는 자연적이고 확률적인 소음—우리가 존재하지 않게 만들려고 해온 바로 그 무작위성—이 강력한 계산 자원이라는 이해 위에 구축되어 있다.
이렇게 생각해보자: 오늘날 AI의 핵심인 GPU는 소음을 시뮬레이션해야 한다. 생성형 AI 모델이 새 이미지나 문장을 만들 때, 복잡한 알고리즘으로 무작위성을 “가짜로” 만들어낸다. TSU는 가짜로 만들 필요가 없다; 열역학의 실제 물리적 무작위성을 활용한다. 이는 확률로 직접 계산하는 하드웨어 조각이다. 이로 인해 TSU는 순수 아날로그 컴퓨터(빛이나 음파를 이용해 계산할 수 있음)와 디지털 GPU 사이 어딘가에 위치한 하이브리드가 된다. 논리 게이트로 문제를 시뮬레이션하는 대신, 물리 법칙 자체를 활용해 해를 찾는 물리적 장치다.
길 잃은 등산객에서 백만 개의 튀는 공까지
직관을 쌓는 가장 좋은 방법은 비유일지 모른다. 복잡한 최적화 문제를 푸는 것을 100제곱마일 산악 지형에서 가장 낮은 고도를 찾는 일로 상상해보자. 경사하강법 같은 알고리즘을 사용하는 고전적 컴퓨팅은, 야간에 이 지형에 혼자 떨어진 등산객 한 명과 같다. 지도도 위성 사진도 없다. 오직 고도계와 발 아래 느껴지는 경사뿐이다. 한 번에 한 걸음씩, 항상 내리막으로 걸어야 하며, 진짜로 가장 낮은 협곡이 수 마일 떨어져 있는데 작은 지역 골짜기에 갇히지 않기를 바랄 뿐이다.
열역학 컴퓨팅은 완전히 다른 접근이다. 헬리콥터와 백만 개의 튀는 공을 가지고 있다고 해보자. 100제곱마일 전체 지형에 백만 개의 공을 동시에 떨어뜨린다. 그런 다음 “지진을 켠다.” 시스템 전체가 흔들린다. 공들은 튀고 부딪히지만, 흔들림(“어닐링”)이 가라앉으면 어디에 모일까? 자연스럽게 가장 낮은 지점에 정착한다. 가장 깊은 계곡에 모인 공들이 최적 해를 대표한다. TSU는 본질적으로 그 백만 개의 공을 한 번에 떨어뜨리고, 열역학 법칙이 가장 낮은 “에너지” 상태를 찾아주도록 하는 물리적 장치다.
퍼즐을 넘어: 현실 세계의 임팩트
이것은 단지 뇌 teasers를 영리하게 푸는 방법 이상의 의미를 가진다. 복잡하고 제약이 많은 시스템의 최저 에너지 상태를 즉시 찾는 능력은 현실 세계에서 경이로운 응용을 가진다. 가장 즉각적인 예 중 하나는 단백질 접힘이다. 구글 딥마인드 같은 회사들이 AlphaFold 같은 AI로 놀라운 진전을 이루었고, 이는 단백질 구조를 예측한다. 하지만 이는 여전히 기존 데이터에 기반한 예측 모델이다. TSU는 잠재적으로 접힘 문제를 직접 풀 수 있다. 단백질을 원자 간 친화력과 반발력의 시스템으로 취급하고, 가장 안정적이고 가장 낮은 에너지의 구성을 거의 순간적으로 찾아낼 수 있다. 이는 신약 개발과 소재 과학을 혁신할 수 있다.
더 심오한 가능성은 핵융합에 있다. 역사상 가장 큰 공학적 도전 중 하나는 토카막 원자로 내부의 초고온 플라즈마를 제어하는 일이다. 이는 플라즈마가 원자로 벽에 닿지 않도록 믿기 어려울 만큼 복잡한 자기 구속장을 실시간으로 형성해야 한다. 이는 현재 우리의 능력을 넘어서는, 실시간 최적화 문제다. 그러나 TSU는 충분히 빠를 수 있다. 문제를 소프트웨어의 여러 층으로 추상화하는 대신 전기 자체로 계산하는 능력 덕분에, 자기장을 충분히 빠르게 업데이트하여 융합 반응을 안정화할 수 있을지도 모른다. 나아가 열역학 컴퓨팅 요소가 토카막 벽에 직접 내장되어, 원자로가 플라즈마의 상태에 실시간으로 물리적으로, 지능적으로 반응하는 미래도 상상해볼 수 있다.
새 시대의 ‘GPT-2 모먼트’
과대광고에 무뎌지기 쉽지만, TSU와 함께 우리가 목격하고 있는 것은 다르게 느껴진다. 이것은 일종의 “GPT-2 모먼트”라고 부를 만하다. 그 시기에 있었던 사람들에게 GPT-2는 장난감 이상의 첫 생성형 AI 모델이었다; 집에서 직접 다뤄보며 진정한 생성 지능의 불꽃을 볼 수 있었던 최초의 순간이었다. 이후 세상을 바꾼 GPT-3와 ChatGPT 혁명을 직접 가리키는 전조였다. TSU가 주는 느낌이 그렇다. 새로운 컴퓨팅 패러다임을 위한 “SDK”다.
이 기술은 고전적 컴퓨팅과 양자 컴퓨팅만큼이나 다르지만, 결정적인 차이가 있다: 15명으로 구성된 팀이 2년 만에 만들었고, 책상 위에서 상온으로 작동한다. 양자 컴퓨팅은 수십 년의 연구와 수십억 달러의 자금이 투입되었지만, 아직 상업적으로 실현 가능하고 확장 가능한 기계를 내놓지 못했다. TSU는 지금 여기 있다. 가상화의 명백한 미래를 2007년에 목도하고, 딥러닝과 GPT에 대해 일찍이 확신을 가졌던, 최첨단 기술 분야 20년에 걸친 커리어를 바탕으로 보면, 이것은 근본적이고 세상을 바꾸는 변화의 모든 징후를 갖추고 있다. 우리는 단지 더 빠른 계산기를 만드는 것이 아니다; 우주 자체로 계산하는 법을 배우고 있다. 주의 깊게 지켜보라. 이것이 다음 큰 물결이다.

