AI가 생각한다, 사고란 무엇일까?

1.
무척이나 흥미로운 글입니다.

AI가 ‘생각한다’는 논거를 통해 읽은 글입니다. 출처는 The Case That A.I. Is Thinking: ChatGPT does not have an inner life. Yet it seems to know what it’s talking about입니다. Geeknews가 번역해서 소개한 댓글을 보면 내용이 방대합니다. AI와 지능에 대한 많은 시사점을 줍니다.

그래서 DeepML의 도움으로 뉴요커의 글을 번역했습니다.

인공지능 기업 앤트로픽의 최고경영자(CEO) 다리오 아모데이는 생물학, 수학, 공학, 글쓰기 등 분야에서 “노벨상 수상자보다 똑똑한” 인공지능이 2027년까지 등장할 것이라고 예측해왔다. 그는 데이터센터 안에 수백만 개의 모델이 각자 연구를 수행하며 돌아가는 모습을 상상한다. “데이터센터 안에 있는 천재들의 나라”라는 비전이다. 6월에는 오픈AI의 샘 알트먼이 업계가 “디지털 초지능” 구축 직전에 있다고 썼다. 그는 “2030년대는 지금까지의 어느 시대와도 완전히 다를 것”이라고 주장했다. 한편 현재 대다수가 일상적으로 접하는 인공지능 도구는 마이크로소프트 오피스의 ‘클리피’를 연상시킨다. 당시 ‘보조 도구’로 소개됐으나 오히려 성가신 존재였던 클리피처럼, 줌 인공지능 도구는 “회의 분위기 전환법이 뭐가 있을까?”라고 묻거나 “감사를 전하는 짧은 메시지를 작성해줘”라고 지시하라고 제안한다. 시리는 알림 설정에는 능숙하지만 그 외에는 별다른 기능이 없다. 제 친구는 Gmail에서 “감사 인사와 일화 공유” 버튼을 발견했습니다. 클릭하자 구글 인공지능이 그가 가본 적도 없는 터키 여행에 관한 재미있는 이야기를 지어냈습니다.

인공지능의 성급하고 불균형적인 확산은 마치 안개 속을 걷는 듯한 혼란을 초래했다. 이로 인해 ‘여기서 볼 게 없다’거나 ‘모두 과대광고일 뿐’이라는 결론에 쉽게 빠지게 된다. 물론 과대광고는 분명히 존재한다: 아모데이의 시간표는 공상과학 소설 수준이다. (인공지능 모델이 그렇게 빠르게 발전하지는 않는다.) 그러나 대규모 언어 모델이 단지 단어를 재배열하는 것에 불과하다고 생각하는 것은 또 다른 종류의 희망사항에 불과하다. 나도 한때 그런 관점에 공감했다. 인공지능이 진정한 지능이나 이해와는 거리가 멀다는 생각에서 위안을 찾았다. 심지어 그 한계를 축하하기도 했다—마치 홈팀을 응원하듯. 그러다 프로그래머로서 업무에 인공지능을 활용하기 시작했다. 그렇지 않으면 뒤처질까 두려웠기 때문이다. (제가 근무하는 트레이딩 회사는 Anthropic을 비롯한 여러 인공지능 기업에 투자하고 협력 관계를 맺고 있습니다.) 많은 평가에 따르면 코드 작성은 인공지능이 가장 잘하는 분야입니다. 코드는 산문보다 구조가 명확하고, 특정 프로그램이 작동하는지 자동으로 검증할 수 있는 경우가 많기 때문입니다. 제 태도 변화는 순식간이었습니다. 처음에는 무언가를 찾아보는 대신 인공지능 모델에 의존했습니다. 그다음에는 작고 독립적인 문제들을 맡겼습니다. 결국에는 제가 평생 훈련해 온 진짜 업무를 맡겼죠. 이 모델들이 수천 줄에 달하는 복잡한 코드의 세부 사항을 단 몇 초 만에 소화해내는 모습을 목격했습니다. 미묘한 버그를 찾아내고 복잡한 신규 기능을 설계할 수 있었습니다. 결국 저는 AI 도구를 더 효과적으로 활용하고 자체 개발하는 것을 목표로 하는 급성장 중인 팀으로 이동하게 되었습니다.

공상과학 작가 윌리엄 깁슨은 미래는 이미 도래했으나 고르게 분포되지 않았다고 지적한 바 있다. 이는 인공지능이 두 가지 문화를 양산한 이유를 설명해줄 수 있다. 하나는 냉소적인 태도이고 다른 하나는 매혹된 태도다. 일상에서 휴가 예약이나 세금 신고를 처리하는 인공지능 ‘에이전트’는 실패작이지만, 동료 중에는 코드의 상당 부분을 인공지능으로 작성하고 때로는 여러 코딩 에이전트를 동시에 실행하는 이들도 있다. 모델들은 때로 아마추어 같은 실수를 하거나 무의미한 루프에 빠지기도 하지만, 효과적으로 활용하는 법을 터득한 이후로 한 달이 걸리던 작업을 하루 저녁 만에 해낼 수 있게 되었다. 얼마 전까지만 해도 iOS 앱을 만드는 법을 전혀 모르던 내가 두 개의 iOS 앱을 만들었다.

한때 제 상사가 면접은 약점의 부재가 아니라 강점을 탐구해야 한다고 말한 적이 있습니다. 대규모 언어 모델은 많은 약점을 지니고 있습니다: 유명하게도 그럴듯한 거짓말을 지어내며, 당신이 틀렸을 때조차 아첨할 수 있고, 간단한 퍼즐에도 속아 넘어갑니다. 하지만 오늘날 AI 모델의 명백한 강점들—유창함, 유연함, 상대방의 말을 ‘파악’하는 능력—이 성배처럼 여겨지던 시절이 기억납니다. 이런 강점을 직접 경험하면 의문이 들죠: 이해하는 듯한 환상이 얼마나 설득력 있어야 비로소 환상이라 부르지 않게 될까?
올여름 무더운 날, 친구 맥스는 놀이터에서 가족과 만났다. 아이들용 스프링클러가 왠지 꺼져 있었고, 맥스의 아내는 남편이 고쳐주겠다고 모두에게 약속했다. 얼굴이 빨개진 6~7살 아이들의 항의를 받은 맥스는 큰 ‘켜기’ 스위치를 찾으려 도구 창고로 들어갔다. 대신 그는 낡은 파이프와 밸브의 미로를 발견했다. 포기하려던 순간, 그는 문득 휴대폰을 꺼내 문제 설명과 함께 사진을 ChatGPT-4o에 입력했다. 인공지능은 잠시 생각했는지, 아니면 생각하지 않았는지 모르겠지만, 어쨌든 그가 보고 있는 것이 관개 설비에 흔히 쓰이는 역류 방지 장치 시스템이라고 말했다. 아래쪽에 노란색 볼 밸브가 보이냐고? 아마도 그게 유량을 조절하는 것일 거라고. 맥스가 그 밸브를 돌리자, 물이 콸콸 나오자 놀이터에 환호성이 터져 나왔다.

챗GPT는 무의미하게 단어를 이어붙인 것일까, 아니면 문제를 이해한 것일까? 그 답은 이해 자체에 관한 중요한 교훈을 줄 수 있다. 캘리포니아대학교 버클리 캠퍼스의 신경과학 교수 도리스 차오는 이렇게 말했다. “신경과학자들은 이 겸허한 진실을 마주해야 합니다.” “기계 학습의 발전은 지난 100년간 신경과학이 발견한 그 어떤 것보다 지능의 본질에 대해 더 많은 것을 가르쳐 주었습니다.” 차오 교수는 마카크 원숭이가 얼굴을 인식하는 방식을 해독한 연구로 가장 잘 알려져 있다. 그녀의 연구팀은 원숭이가 특정 얼굴을 볼 때 어떤 뉴런이 발화할지 예측하는 법을 터득했다. 더욱 놀라운 것은, 뉴런 발화 패턴을 주어지면 차오 팀이 그 얼굴을 재현할 수 있었다는 점이다. 이들의 연구는 인공지능 모델 내부에서 얼굴이 어떻게 표현되는지에 대한 연구를 기반으로 했다. 요즘 그녀가 사람들에게 가장 자주 묻는 질문은 “ChatGPT로부터 얻은 가장 깊은 통찰은 무엇인가요?”이다. 그녀는 “제 대답은, ChatGPT가 사고 과정을 근본적으로 신비화에서 해방시킨다고 생각한다는 것입니다”라고 말했다.

우리가 여기까지 오게 된 가장 기본적인 설명은 대략 다음과 같다. 1980년대, 소규모 인지 심리학자 및 컴퓨터 과학자 팀이 기계에서 사고를 시뮬레이션하려 시도했다. 그중에서도 데이비드 루멜하트, 제프리 힌턴, 제임스 맥클렐랜드는 특히 유명했으며, 이들은 캘리포니아대학교 샌디에이고 캠퍼스에서 연구 그룹을 구성했다. 그들은 뇌를 방대한 네트워크로 보았다. 신경세포들이 특정 패턴으로 발화하면 다른 신경세포 집합이 발화하고, 이 과정이 반복되는 패턴의 춤이 바로 사고라는 것이다. 뇌는 신경세포 간 연결 강도를 변화시켜 학습한다. 중요한 점은 과학자들이 인공 신경망을 만들고 예측 정확도를 높이기 위해 ‘경사 하강법’이라는 단순한 알고리즘을 적용함으로써 이 과정을 모방했다는 것이다. (이 알고리즘은 산 정상에서 계곡으로 내려가는 등산객에 비유할 수 있다. 결국 길을 찾는 간단한 전략은 매 단계마다 내리막길을 걷도록 하는 것이다.) 대규모 네트워크에서 이러한 알고리즘을 사용하는 것을 딥 러닝이라 한다.

인공지능 분야의 다른 연구자들은 신경망이 현실 세계의 과제를 해결할 만큼 정교하지 않다고 회의적이었지만, 신경망이 커지면서 이전에는 해결 불가능했던 문제들을 해결하기 시작했다. 사람들은 손글씨 숫자를 구분하거나 이미지 속 얼굴을 인식하는 기술을 개발하는 데 논문 전체를 할애하곤 했다. 그러다 딥러닝 알고리즘이 기초 데이터를 분석하고 문제의 미묘한 차이를 발견하면서, 그러한 연구들은 쓸모없어 보였다. 딥러닝은 곧 음성 인식, 번역, 이미지 캡션 생성, 보드 게임, 심지어 단백질 접힘 예측 문제까지 정복했다.
오늘날 선도적인 인공지능 모델들은 ‘다음 토큰 예측’이라는 기법을 사용해 인터넷의 방대한 양을 학습한다. 모델은 다음에 읽을 내용을 추측한 후, 그 추측과 실제 나타난 내용을 비교하며 학습한다. 잘못된 추측은 뉴런 간 연결 강도의 변화를 유발하는데, 이것이 바로 경사 하강법이다. 결국 모델은 텍스트 예측에 매우 능숙해져 마치 지식을 알고 논리적으로 판단하는 것처럼 보인다. 이는 생각해볼 만한 점이다. 한 그룹이 뇌 작동의 비밀을 찾으려 했다. 그들의 모델이 뇌와 유사한 규모로 성장하자, 뇌와 같은 지능이 필요하다고 여겨졌던 일들을 수행하기 시작했다. 그들이 찾던 것을 발견한 것일까?

인공지능에 대한 이처럼 단순하고 승리주의적인 설명에 대한 저항은 당연하다. 이에 대한 반론은 테드 치앙이 2023년 초 본지에 기고한 “챗GPT는 웹의 흐릿한 JPEG 이미지다”라는 글에서 설득력 있게 제시되었다. 그는 다소 비관적인 의미로 이 말을 했다: 챗GPT는 그저 그런 존재일 뿐이라는 것이다. 인터넷 전체를 프로그램에 먹이면, 마치 사진의 복사본을 또 복사한 것처럼 불완전하게 토해내지만, 프로그램이 지능적이라고 믿게 할 만큼의 능숙함은 갖추고 있다는 것이다. 올봄에는 언어학자 에밀리 M. 벤더와 사회학자 알렉스 한나가 쓴 책 『인공지능 사기극(The AI Con)』에서도 유사한 주장이 제기되었다. 벤더는 대규모 언어 모델(LLM)을 “확률적 앵무새”라고 묘사한 것으로 가장 잘 알려져 있다. 타일러 오스틴 하퍼 작가는 『더 애틀랜틱』 서평에서 “대규모 언어 모델은 아무것도 ‘이해’하지 않으며, 할 수도 없고, 앞으로도 그럴 수 없다”고 선언했다. 모델들은 “생각해서 글을 생성하는 것이 아니라, 어떤 어휘 항목이 다른 항목 뒤에 올 가능성이 높은지에 대해 통계적으로 정보에 입각한 추측을 함으로써” 글을 만들어낸다. 하퍼는 이러한 기술적 논거에 도덕적 논거를 더했다. 인공지능은 권력자들을 부유하게 만들고, 기후 변화를 가속화할 만큼의 에너지를 소비하며, 노동자들을 주변화시킨다. 그는 “인공지능 산업의 기반은 사기”라고 결론지었다.

하지만 인공지능에 대한 도덕적 반대 논거는 기술적 반대보다 궁극적으로 더 강력할 수 있다. “어느 시점에서는 ‘확률적 앵무새’ 같은 접근법은 사라져야 한다”고 인공지능 열광론자가 아닌 하버드 대학의 인지과학자 사무엘 J. 거쉬먼이 내게 말했다. 프린스턴 대학의 인지 신경과학자 조너선 코헨은 인공지능의 한계를 강조하면서도, 특정 상황에서 대규모 언어 모델(LLM)이 인간 뇌의 가장 크고 중요한 부분 중 하나를 반영하는 것처럼 보인다고 주장했다. 코헨은 “대략적으로 말해, 당신의 신피질은 딥러닝 메커니즘과 같다”고 말했다. 인간은 체구에 비해 다른 동물보다 훨씬 큰 신피질을 가지고 있으며, 가장 큰 신피질을 가진 종들—코끼리, 돌고래, 고릴라, 침팬지, 개—은 가장 지능이 높은 종들 중 하나다.

2003년, 기계 학습 연구자 에릭 B. 바움은 『생각이란 무엇인가?』(What Is Thought?)라는 책을 출간했다. (나는 대학 도서관 서고에서 제목에 이끌려 우연히 이 책을 발견했다.) 바움의 주장의 핵심은 이해는 압축이며, 압축은 이해라는 것이다. 통계학에서 그래프상의 점들을 해석하고자 할 때, 선형 회귀라는 기법을 사용해 그 점들을 통과하는 ‘최적의 적합선’을 그릴 수 있다. 데이터에 근본적인 규칙성이 존재한다면—예를 들어 신발 사이즈와 키를 그래프로 나타낸 경우—최적의 적합선은 이를 효율적으로 표현하여 새로운 점들이 어디에 위치할지 예측해준다. 신피질은 소음, 시각, 기타 감각 등 원시 경험의 바다를 ‘최적의 적합선’으로 정제하여 예측에 활용하는 기관으로 이해될 수 있다. 세상을 탐험하는 아기는 장난감이 어떤 맛일지, 음식이 바닥에 떨어지면 어디로 갈지 추측합니다. 예측이 틀리면 뉴런 간의 연결이 조정됩니다. 시간이 지나면서 이러한 연결은 데이터의 규칙성을 포착하기 시작합니다. 이는 세계에 대한 압축된 모델을 형성합니다.

인공 신경망은 실제 신경망처럼 경험을 압축한다. 최고의 오픈소스 인공지능 모델 중 하나인 딥시크(DeepSeek)는 소설을 쓰고, 의학적 진단을 제시하며, 수십 개 언어에서 원어민처럼 말할 수 있다. 이 모델은 수 테라바이트 규모의 데이터에 대한 다음 토큰 예측을 통해 훈련되었다. 하지만 모델을 다운로드하면 그 용량은 600분의 1에 불과하다. 인터넷의 정수를 노트북에 담을 수 있도록 압축한 것이다. 테드 창이 초기 버전의 ChatGPT를 웹의 흐릿한 JPEG라고 표현한 것은 옳았다. 하지만 내 생각에, 바로 이 점이 이러한 모델들이 점점 더 지능적으로 발전한 이유다. 창은 자신의 글에서 수백만 개의 산술 예시로 가득 찬 텍스트 파일을 압축하려면 zip 파일을 만들지 않을 것이라고 지적했다. 계산기 프로그램을 작성할 것이다. “텍스트를 이해하는 것이 가장 높은 수준의 압축을 달성하는 방법이다”라고 그는 썼다. 아마도 대규모 언어 모델(LLM)들이 이제 그 일을 시작하고 있는지도 모른다.

컴퓨터 프로그램이 실제로 이해하고, 실제로 생각한다는 상상은 부자연스럽고 심지어 역겨울 수 있다. 우리는 보통 사고를 의식적인 것으로 개념화한다. 조이스의 내적 독백이나 프루스트의 백일몽 속 감각 기억의 흐름처럼 말이다. 혹은 추론을 의미할 수도 있다: 문제를 단계별로 해결해 나가는 과정. 인공지능에 관한 논의에서 우리는 종종 이러한 서로 다른 사고 방식을 혼동하며, 이는 우리의 판단을 단순하게 만든다. 한 주장은 이렇게 말한다: ChatGPT는 분명히 프루스트식 몽상에 잠겨 있지 않으니 사고하고 있지 않다. 또 다른 주장은 이렇게 반박한다: ChatGPT는 논리 퍼즐을 당신보다 더 잘 풀 수 있으니 분명히 사고하고 있다.

더 미묘한 무언가가 진행 중이다. 나는 ChatGPT가 내적 삶을 지녔다고 믿지 않지만, 그럼에도 그것이 무슨 말을 하는지 알고 있는 것처럼 보인다. 이해—무슨 일이 벌어지고 있는지 파악하는 것—은 대부분 무의식적이기 때문에 제대로 평가받지 못하는 사고의 한 형태다. 인디애나 대학교의 인지과학 및 비교문학 교수인 더글러스 호프스태터는 인지가 인식이라고 말하곤 한다. 호프스태더는 1980년 퓰리처상을 수상한 마음과 의식에 관한 저서 『괴델, 에셔, 바흐: 영원한 황금의 땋은 머리』로 유명해졌습니다. 수십 년간의 연구를 통해 발전시킨 그의 이론은 “~로 보는 것”이 사고의 본질이라는 것입니다. 당신은 한 색깔을 차로, 다른 색깔을 열쇠고리로 인식한다. 글씨체가 어떻든, 필체가 얼마나 엉망이든 ‘A’라는 글자를 알아본다. 호프스태더는 더 추상적인 인식에도 동일한 과정이 작용한다고 주장했다. 체스 그랜드마스터가 체스판을 살필 때, 수년간의 연습이 시각화된다: 백의 비숍이 취약하다, 그 엔드게임은 아마도 무승부일 것이다. 강물의 소용돌이를 건너기 위험한 신호로 인식한다. 참석 중인 회의를 ‘벌거벗은 왕’ 같은 상황으로 본다. 내 두 살 난 아들은 늦은 아침 유모차 산책이 크루아상 먹을 기회일 수 있음을 알아차리고 그에 맞춰 요구한다. 호프스태터에게 이는 지능의 핵심이다.

호프스태더는 초기 인공지능 비관론자 중 한 명이었으며, 저의 회의론도 그의 견해에서 비롯되었습니다. 그는 대부분의 인공지능 연구가 진정한 사고와는 거의 무관하다고 썼고, 2000년대 대학 시절 저는 그 의견에 동의했습니다. 예외는 있었습니다. 그는 캘리포니아대학교 샌디에이고 캠퍼스(U.C.S.D.) 연구팀을 흥미롭게 여겼습니다. 그는 또한 덜 알려진 핀란드계 미국인 인지과학자 펜티 카네르바의 연구를 높이 평가했는데, 카네르바는 고차원 공간의 수학에서 특이한 성질을 발견했다. 고차원 공간에서는 임의의 두 점이 극도로 멀리 떨어져 있을 수 있다. 그러나 직관과 달리 각 점 주변에는 이웃 점들의 거대한 구름이 존재해, ‘충분히 가까워지면’ 그 점을 쉽게 찾아갈 수 있다. 이는 카네르바에게 기억이 작동하는 방식을 떠올리게 했다. 1988년 출간된 『스파스 분산 기억(Sparse Distributed Memory)』에서 카네르바는 생각, 감각, 회상이 고차원 공간의 좌표로 표현될 수 있다고 주장했다. 뇌는 그러한 것들을 저장하기에 완벽한 하드웨어처럼 보였다. 모든 기억은 일종의 주소를 지니는데, 이는 기억을 떠올릴 때 활성화되는 뉴런들에 의해 정의된다. 새로운 경험은 새로운 신경 세포 집단의 활성화를 유발하며, 이는 새로운 주소를 나타낸다. 두 주소는 여러 면에서 다를 수 있지만 다른 면에서는 유사할 수 있다. 새로운 경험은 새로운 신경 세포 집단을 활성화시켜 새로운 주소를 생성한다. 두 주소는 여러 면에서 다를 수 있지만 다른 면에서는 유사할 수 있다. 하나의 지각이나 기억이 근처의 다른 기억들을 촉발한다. 건초 냄새는 여름 캠프의 기억을 떠올리게 한다. 베토벤 교향곡 5번의 첫 세 음은 네 번째 음을 낳는다. 본 적 없는 체스 판면이 오래된 게임들을 떠올리게 한다—모든 게임이 아니라, 적절한 근방에 있던 것들만.

호프스타터는 카네르바가 일종의 ‘보는 방식’ 기계에 대해 설명하고 있음을 깨달았다. 그는 카네르바의 책 서문에서 이렇게 썼다. “펜티 카네르바의 기억 모델은 나에게 계시와도 같았다. 뇌가 전체적으로 어떻게 작동하는지 이해한다는 먼 목표를 엿볼 수 있게 해준, 내가 접한 최초의 연구 성과였다.” 모든 종류의 사고—조이스식, 프루스트식, 논리적이든—는 적절한 시점에 관련 사항이 떠오르는 것에 달려 있다. 그것이 우리가 처한 상황을 파악하는 방식이다.

카네르바의 책은 시야에서 사라졌고, 호프스태터의 명성도 점차 사그라들었다. 다만 가끔씩 새로운 인공지능 시스템을 비판하며 모습을 드러낼 때만 예외였다. 2018년 그는 구글 번역과 유사한 기술에 대해 이렇게 썼다. “이 접근 방식에는 여전히 근본적으로 부족한 점이 있는데, 그건 한 단어로 요약된다: 이해.” 그러나 2023년 출시된 GPT-4는 호프스태더의 전환점을 만들었다. 그는 최근 내게 이렇게 말했다. “이 시스템들이 해내는 일 중 일부는 정말 놀라울 따름이다. 불과 10년 전만 해도 상상조차 할 수 없었을 것이다.” 가장 완고한 비관론자조차 더 이상 부정할 수 없었습니다. 전문가 못지않게 번역하고, 비유를 만들고, 즉흥적으로 대응하며, 일반화할 수 있는 프로그램이 등장한 것입니다. 우리가 그걸 이해하지 못한다고 말할 자격이 있을까요? “그것들은 사고와 매우 유사한 일을 합니다”라고 그는 말했습니다. “어쩌면 그것들이 사고한다고 말할 수 있겠죠, 단지 다소 낯선 방식으로 말입니다.”

L.L.M.은 핵심에 ‘보는 방식’의 기계가 있는 듯하다. 각 단어를 고차원 공간에서의 좌표—벡터—를 나타내는 일련의 숫자로 표현한다. GPT-4에서 단어 벡터는 수천 차원을 가지며, 이는 다른 모든 단어와의 유사성과 차이점을 묘사한다. 훈련 과정에서 대규모 언어 모델은 예측 오류를 범할 때마다 단어의 좌표를 조정합니다. 텍스트에서 함께 등장하는 단어들은 공간상에서 더 가까워지도록 밀려납니다. 이로 인해 사용법과 의미가 놀라울 정도로 밀집된 형태로 표현되며, 유추는 기하학적 문제로 전환됩니다. 대표적인 예로, “파리”의 단어 벡터에서 “프랑스”를 빼고 “이탈리아”를 더하면 가장 가까운 다른 벡터는 “로마”가 됩니다. L.L.M.은 이미지의 내용, 분위기, 심지어 사람들의 표정까지 충분히 상세하게 인코딩하여 특정 스타일로 재현하거나 해당 이미지에 대한 문단을 작성할 수 있도록 ‘벡터화’할 수 있습니다. 맥스가 공원 스프링클러 문제를 해결해 달라고 ChatGPT에 요청했을 때, 모델은 단순히 텍스트를 쏟아내는 것이 아니었습니다. 배관 사진은 맥스의 프롬프트와 함께 가장 중요한 특징을 포착한 벡터로 압축되었습니다. 이 벡터는 주변 단어와 개념을 불러오는 주소 역할을 했습니다. 그런 아이디어들은 모델이 상황 인식을 구축해 나가면서 차례로 다른 것들을 불러냈습니다. 모델은 그 아이디어들을 ‘마음에 두고’ 답변을 구성한 것입니다.

몇 달 전, 나는 앤트로픽 연구원 트렌턴 브리켄과의 인터뷰를 읽었다. 그는 동료들과 함께 회사의 인공지능 모델 시리즈인 클로드의 내부 구조를 탐구해왔다. (그들의 연구는 아직 동료 평가를 거치지 않았으며 과학 저널에도 게재되지 않았다.) 그의 팀은 클로드가 특정 발언을 하려는 순간 활성화되는 인공 신경망 집합체, 즉 ‘특징’들을 식별해냈다. 특징은 개념의 볼륨 조절기와 같다. 이를 높이면 모델은 거의 그 개념만 이야기한다. (일종의 사고 통제 실험에서 골든게이트 다리를 나타내는 특징을 높였더니, 한 사용자가 클로드에게 초콜릿 케이크 레시피를 요청하자 제안된 재료에 “건조한 안개 1/4컵”과 “따뜻한 바닷물 1컵”이 포함되었다.) 인터뷰에서 브리켄은 선도적인 AI 모델의 기반이 되는 신경망 구축 방식인 구글의 트랜스포머 아키텍처를 언급했다. (ChatGPT의 ‘T’는 ‘Transformer’를 의미한다.) 그는 트랜스포머 아키텍처의 핵심 수학이 수십 년 전 펜티 카네르바가 ‘스파스 분산 메모리(Sparse Distributed Memory)’에서 제안한 모델과 매우 유사하다고 주장했다.

인공지능과 우리 뇌 사이의 유사성에 놀라야 할까? 결국 LLM은 심리학자와 신경과학자들이 개발에 기여한 인공 신경망이다. 더 놀라운 점은 모델들이 단순 암기 작업—단어 예측—을 수행할 때 뇌와 유사한 방식으로 행동하기 시작했다는 사실이다. 최근 신경과학과 인공지능 분야는 서로 얽히고 있으며, 뇌 전문가들은 인공지능을 일종의 모델 유기체로 활용하고 있다. MIT의 신경과학자 에벨리나 페도렌코는 대규모 언어 모델을 활용해 뇌가 언어를 처리하는 방식을 연구해왔다. 그녀는 “내 생애에 이런 것들을 고민하게 될 줄은 꿈에도 몰랐다”며 “이 정도로 우수한 모델이 등장할 거라곤 상상조차 못 했다”고 말했다.

인공지능이 블랙박스라는 말은 흔해졌지만, 오히려 그 반대라고 할 수 있다: 과학자는 개별 인공 뉴런의 활동을 탐구하고 심지어 변경할 수도 있다. 프린스턴 대학의 신경과학자 케네스 노먼은 “인간 지능 이론을 구현하는 작동 시스템을 갖는 것—그것이 인지신경과학의 꿈이다”라고 내게 말했다. 노먼은 일화적 기억이 저장되는 뇌 영역인 해마의 컴퓨터 모델을 개발했지만, 과거 모델들은 너무 단순해서 인간 마음에 들어갈 수 있는 것들의 조잡한 근사치만 입력할 수 있었다. “이제 기억 모델에 사람에게 주는 것과 똑같은 자극을 줄 수 있습니다”라고 그는 말했다.

라이트 형제는 비행기 제작 초기 단계에서 새를 연구했다. 그들은 새들이 바람을 등지고 날고 싶어 할 것이라고 합리적인 사람이 생각할 수 있음에도 불구하고, 오히려 바람을 맞으며 이륙한다는 점과 균형을 위해 날개 끝을 휘게 한다는 점을 관찰했다. 이러한 발견은 그들의 초보적인 글라이더 설계에 영향을 미쳤다. 이후 그들은 6피트 길이의 풍동을 제작해 정밀하게 제어된 환경에서 인공 날개 세트를 시험할 수 있었다. 그 결과 다음 글라이더 비행은 훨씬 더 성공적이었다. 이상하게도 새들이 정확히 어떻게 비행하는지 이해할 수 있게 된 것은 그들이 작동하는 비행 기계를 만든 지 한참 후의 일이었다.
인공지능은 과학자들이 사고 자체를 풍동 실험에 넣을 수 있게 한다. ‘대규모 언어 모델의 생물학’이라는 도발적인 제목의 논문에서 Anthropic 연구진은 클로드가 질의에 응답하는 모습을 관찰하고, 복잡한 계산을 수행하는 특징들의 연쇄인 ‘회로’를 설명했다. (올바른 기억을 불러오는 것은 사고를 향한 한 걸음이며, 회로에서 이를 결합하고 조작하는 것은 또 다른 단계라 할 수 있다.) L.L.M.에 대한 오랜 비판 중 하나는 응답을 한 번에 하나의 토큰씩 생성해야 하기 때문에 계획하거나 추론할 수 없다는 점이었다. 그러나 클로드에게 시의 운율 맞춘 연을 완성해 달라고 요청하면, 회로가 새 행의 마지막 단어를 고려하기 시작하여 운율이 맞도록 보장한다. 그런 다음 전체 행을 구성하기 위해 역으로 작업한다. 인류학적 연구자들은 이를 모델이 실제로 계획을 세운다는 증거로 간주했다. 눈을 가늘게 뜨고 보면, 마음의 내부 작동 원리가 처음으로 드러나는 듯한 느낌을 받을 수도 있다.

하지만 정말 눈을 가늘게 뜨고 봐야 합니다. 프린스턴 대학 신경과학자 노먼은 이렇게 말했습니다. “제가 우려하는 점은 사람들이 ‘이건 정말 의심스럽다’는 태도에서 완전히 방어막을 내리는 쪽으로 입장을 바꿨다는 겁니다.” “아직도 해결해야 할 문제들이 많습니다.” 나는 노먼이 말하는 사람들 중 하나다. (아마도 나는 ‘희소 분산 기억(Sparse Distributed Memory)’과 인류 중심적 모델(Anthropic model)의 겉보기 수렴에 너무 쉽게 흔들리는 것 같다.) 지난 1~2년간 나는 최근 인공지능 연구로 노벨상을 수상한 제프리 힌턴이 2020년 기자 카렌 하오에게 한 말을 믿기 시작했다: “딥러닝은 모든 것을 해낼 수 있을 것이다.” 하지만 우리는 더 큰 모델이 항상 더 나은 모델은 아니라는 점도 목격했다. 모델 성능을 크기에 따라 그래프로 나타내면 평탄화되기 시작했다. 모델이 이미 소화하지 않은 고품질 데이터를 찾기 어려워지고 있으며, 컴퓨팅 비용은 점점 더 비싸지고 있다. 지난 8월 출시된 GPT-5는 단지 점진적인 개선에 불과했으며, 이는 인공지능 투자 거품을 터뜨릴 만큼 실망스러웠다. 지금 이 순간은 중간 정도의 회의론이 필요하다: 오늘날의 인공지능 모델을 진지하게 받아들이되, 더 이상 해결하기 어려운 문제가 남아 있지 않다고 믿지 않는 태도 말이다.

이러한 문제들 중 가장 중대한 것은 인간만큼 효율적으로 학습하는 모델을 어떻게 설계할 것인가 하는 점일 것이다. GPT-4는 훈련 과정에서 수조 단위의 단어에 노출된 것으로 추정되지만, 아이들은 유창해지기 위해 불과 수백만 단어만 필요로 한다. 인지과학자들은 신생아의 뇌가 학습을 가속화하는 특정 ‘귀납적 편향’을 지니고 있다고 말한다. (물론 뇌 자체가 수백만 년 진화의 결과물이며, 일종의 훈련 데이터라 할 수 있다.) 예를 들어 인간 아기는 세상이 사물로 구성되어 있으며 다른 존재들도 믿음과 의도를 지닌다는 기대를 품는다. 엄마가 “바나나”라고 말하면 아기는 그 단어를 자신이 바라보는 노란색 사물 전체와 연결한다—단순히 끝부분이나 껍질만이 아니다. 아기들은 작은 실험을 수행한다: 이것을 먹을 수 있을까? 저것을 얼마나 멀리 던질 수 있을까? 그들은 욕구, 호기심, 좌절감 같은 감정에 의해 동기를 부여받습니다. 아이들은 항상 자신의 능력보다 조금 더 나은 것을 시도합니다. 그들의 학습은 신체화되고, 적응적이며, 의도적이며, 지속적이기 때문에 효율적입니다. 아마도 세상을 진정으로 이해하려면 그 속에 참여해야 할지도 모릅니다.

이에 비해 인공지능의 경험은 너무 빈약해서 ‘경험’이라 부르기조차 어렵다. 대규모 언어 모델은 이미 극도로 정제된 데이터로 훈련된다. 캘리포니아대학교 버클리 캠퍼스의 신경과학자 차오는 “이들이 작동하는 이유는 언어를 빌려타고 있기 때문”이라고 내게 말했다. 언어는 미리 씹어준 경험과 같다. 다른 종류의 데이터는 의미가 덜 농축되어 있다. 하버드 대학의 인지과학자 거쉬먼은 “왜 영상 데이터에 대한 추론 측면에서는 비슷한 혁명이 일어나지 않았을까?”라고 질문했다. “우리가 가진 시각 모델들은 여전히 물리학에 대한 상식적 추론에 어려움을 겪고 있다.” 딥마인드의 최근 모델은 물감을 정확히 혼합하고 미로를 해결하는 영상을 생성할 수 있지만, 동시에 유리가 깨지지 않고 튀어오르거나 물리 법칙을 무시하고 밧줄이 뭉개져 매듭이 되는 장면도 묘사한다. 현재 마이크로소프트 리서치에서 근무하는 인지 신경과학자 이다 모멘네자드는 LLM(대규모 언어 모델)에게 건물의 가상 투어를 시킨 후 경로와 지름길에 관한 질문을 던지는 실험을 진행했다. 이는 인간에게는 쉬운 공간적 추론이다. 가장 기본적인 설정 외에는 AI가 실패하거나 존재하지 않는 경로를 환각하는 경향이 있었다. “정말 계획 수립을 하는 걸까?” 그녀가 말했다. “사실 그렇지 않습니다.”

신경과학자들과의 대화에서 나는 인공지능 산업이 다소 무분별하게 질주하고 있다는 우려를 느꼈다. 프린스턴 대학의 인지과학자 브렌든 M. 레이크는 “목표가 인공 지능을 인간 지능만큼 능숙하게 만드는 것이라면, 우리는 시스템을 올바른 방식으로 훈련시키지 못하고 있다”고 내게 말했다. AI 훈련이 끝나면 신경망의 ‘뇌’는 고정된다. 모델에게 자신에 관한 사실을 알려줘도 신경망은 재구성되지 않는다. 대신 조잡한 대용품을 사용한다: “사용자는 유아를 둔 프랑스어 학습자다”라는 텍스트를 기록해 두고, 이후 주어지는 다른 지시보다 이 정보를 우선 고려한다. 인간 뇌는 지속적으로 스스로를 업데이트하는데, 그 방법 중 하나에 대한 아름다운 이론이 있다: 잠들면, 에피소드 기억에서 선택된 스냅샷들이 신피질을 훈련시키기 위해 재생된다. 재생된 기억들이 고차원적 사고 공간에 움푹 패인 자국을 남기며, 깨어날 때면 사물을 보는 방식이 조금 달라져 있다.

인공지능 커뮤니티는 급속한 발전에 중독되어 재정적으로도 깊이 투자한 나머지, 진전이 필연적이며 더 이상 연구할 과학이 남아 있지 않은 것처럼 종종 가장한다. 과학은 때때로 정체되는 불편한 특성을 지닌다. 실리콘밸리는 인공지능 기업들을 ‘연구소’라 부르며 일부 직원을 ‘연구자’라 칭하지만, 근본적으로는 효과가 있는 것은 무엇이든 실행하는 공학적 문화를 지니고 있다. 코헨은 “기계 학습 커뮤니티가 선행된 역사와 인지과학을 살펴보기는커녕 존중조차 하지 않는 모습이 정말 놀랍다”고 말했다.
오늘날의 인공지능 모델은 수십 년 전 뇌에 관한 발견 덕분에 성공했지만, 여전히 뇌와는 근본적으로 다르다. 어떤 차이가 부수적이고 어떤 차이가 근본적인가? 신경과학자마다 각자의 애착 이론이 있다. 이러한 이론들은 이전에는 불가능했던 방식으로 검증될 수 있다. 그럼에도 쉬운 해답을 기대하는 사람은 없다. 노먼은 “AI 모델을 계속 괴롭히는 문제들은 ‘모델이 우리가 원하는 만큼 지능적으로 행동하지 않는 방식을 신중하게 식별한 후 이를 해결하는 방식으로 해결된다’고 말했다. ”이는 여전히 인간 과학자가 개입하는 과정이다.”

1990년대, 수십억 달러가 인간 게놈 프로젝트에 쏟아부어졌다. DNA 염기서열 분석이 의학의 가장 골치 아픈 문제들—암, 유전 질환, 심지어 노화까지—을 해결해 줄 것이라는 기대에서였다. 이는 과장과 확신이 난무하던 시대—복제 양 돌리와 ‘쥬라기 공원’의 시대—로, 생명공학이 팽창하던 시기였으며 논객들은 인간이 신의 역할을 해서는 안 된다는 논쟁을 벌였다. 생물학자들은 곧 현실이 더 복잡하다는 사실을 깨달았다. 우리는 암을 치료하지도, 알츠하이머나 자폐증의 원인을 발견하지도 못했다. DNA가 생명의 이야기 중 일부만을 말해줄 뿐이라는 사실을 깨달았다. 오히려 생물학이 일종의 유전자 열병에 휩쓸려, 연구하고 이해할 수 있는 수단이 생겼다는 이유만으로 DNA에만 집착했다고 주장할 수도 있다.
그럼에도 1953년 DNA 구조를 확인하는 데 기여한 프랜시스 크릭이 케임브리지 술집에 들어가 생명의 비밀을 발견했다고 말했을 때 그가 틀렸다고 주장할 사람은 아무도 없을 것이다. 그와 동료들은 그 누구보다 생명의 신비를 해체하는 데 기여했다. 그들의 발견 이후 수십 년은 과학사에서 가장 생산적이고 흥미진진한 시기 중 하나였다. DNA는 일상 용어가 되었고, 모든 고등학생이 이중나선을 배운다.

인공지능(AI)을 두고 우리는 다시 한번 과장된 자신감에 휩싸인 순간을 맞이했다. 샘 알트먼은 미국에 새로운 AI 데이터 센터 클러스터인 ‘스타게이트’를 건설하기 위해 5천억 달러를 조달하겠다고 말한다. 사람들은 초지능 경쟁에 대해 근거 없는, 심지어 우스꽝스러울 정도로 엄숙하고 긴박한 어조로 논한다. 하지만 아모데이와 알트먼 같은 이들이 메시아적 선언을 하는 이유는 지능에 대한 기본적인 그림이 이미 완성되었다고 믿기 때문일 것이다. 나머지는 단지 세부사항일 뿐이라고.

일부 신경과학자들조차 중요한 문턱을 넘었다고 믿는다. 프린스턴 대학의 코헨, 노먼, 레이크의 동료인 우리 하슨은 신경망에 대해 “진정으로 이것이 인지를 설명하는 올바른 모델이 될 수 있다고 생각한다”고 말했다. 이는 그를 흥분시키는 만큼이나 불안하게 한다. 그는 “대부분의 사람들과는 정반대의 걱정이 있다”며 “내 걱정은 이런 모델들이 우리와 유사하다는 점이 아니다. 우리가 이 모델들과 유사하다는 점입니다.“ 단순한 훈련 기법만으로도 프로그램이 인간처럼 행동할 수 있다면, 인간은 우리가 생각했던 것만큼 특별하지 않을 수도 있다. 이는 인공지능이 지식뿐 아니라 판단력, 독창성, 교활함—결국 권력까지도 우리를 능가할 수 있음을 의미하는 걸까? 놀랍게도 해슨은 ”요즘 우리가 뇌 작동 원리를 이해하는 데 성공할까 봐 걱정된다”고 털어놨다. 이 질문을 추구하는 것이 인류에게 엄청난 실수였을지도 모른다“고 말했다. 그는 인공지능 연구자들을 1930년대 핵 과학자들에 비유했다: ”이 사람들에게 지금이 가장 흥미로운 시기다. 동시에 그들이 연구하는 것이 인류에게 중대한 함의를 지닌다는 것도 알고 있다. 하지만 배우고 싶은 호기심 때문에 멈출 수 없다.”

호프스태더의 저서 중 내가 가장 좋아하는 책은 ‘유동적 개념과 창의적 유추: 사고의 근본적 메커니즘에 대한 컴퓨터 모델’이라는 괴짜 같은 제목의 책이다. 대학 시절 이 책은 내게 전율을 느끼게 했다. ‘사고란 무엇인가?’ 같은 질문이 단순한 철학적 탐구가 아니라 실제 답이 존재한다는 전제가 깔려 있었기 때문이다. 1995년 출간 당시 호프스태터와 그의 연구팀은 그 답이 무엇일지 어렴풋이 암시할 뿐이었다. 이 책을 되돌아보며, 호프스태터가 인공지능 연구자들이 그가 갈망했던 것—생각의 기초에 대한 기계적 설명—을 달성했을지도 모른다는 사실에 흥분할지 궁금했다. 그러나 우리가 이야기했을 때, 그는 깊이 실망하고 두려워하는 듯했다. 그는 “현재의 인공지능 연구는 내 아이디어의 많은 부분을 확인시켜 주지만, 동시에 인류가 지닌 아름다움을 앗아가고 있다”고 말했다. “젊었을 때, 아주 젊었을 때는 창의성의 근원, 창의성의 메커니즘을 알고 싶었습니다. 그게 제게는 성배와도 같았죠. 하지만 지금은 그걸 미스터리로 남겨두고 싶습니다.” 아마도 사고의 비밀은 누구도 예상하지 못했던 단순한 것일지도 모른다—고등학생이나 심지어 기계조차 이해할 수 있는 그런 종류의 것.

2.
위 글을 좀더 이해하고 싶으면 AI는 정말 생각하는가? 회의론자 신경과학자들이 입장을 바꾼 이유을 읽으셔도 좋습니다.

덧붙여 위 기사중 2003년에 나온 책이 등장합니다. 에릭 바움(Baum)이 쓴 What Is Thought?입니다. 아래가 관련한 문단입니다.

2003년, 기계 학습 연구자 에릭 B. 바움은 『생각이란 무엇인가?』(What Is Thought?)라는 책을 출간했다. (나는 대학 도서관 서고에서 제목에 이끌려 우연히 이 책을 발견했다.) 바움의 주장의 핵심은 이해는 압축이며, 압축은 이해라는 것이다. 통계학에서 그래프상의 점들을 해석하고자 할 때, 선형 회귀라는 기법을 사용해 그 점들을 통과하는 ‘최적의 적합선’을 그릴 수 있다. 데이터에 근본적인 규칙성이 존재한다면—예를 들어 신발 사이즈와 키를 그래프로 나타낸 경우—최적의 적합선은 이를 효율적으로 표현하여 새로운 점들이 어디에 위치할지 예측해준다. 신피질은 소음, 시각, 기타 감각 등 원시 경험의 바다를 ‘최적의 적합선’으로 정제하여 예측에 활용하는 기관으로 이해될 수 있다. 세상을 탐험하는 아기는 장난감이 어떤 맛일지, 음식이 바닥에 떨어지면 어디로 갈지 추측합니다. 예측이 틀리면 뉴런 간의 연결이 조정됩니다. 시간이 지나면서 이러한 연결은 데이터의 규칙성을 포착하기 시작합니다. 이는 세계에 대한 압축된 모델을 형성합니다.

인공 신경망은 실제 신경망처럼 경험을 압축한다. 최고의 오픈소스 인공지능 모델 중 하나인 딥시크(DeepSeek)는 소설을 쓰고, 의학적 진단을 제시하며, 수십 개 언어에서 원어민처럼 말할 수 있다. 이 모델은 수 테라바이트 규모의 데이터에 대한 다음 토큰 예측을 통해 훈련되었다. 하지만 모델을 다운로드하면 그 용량은 600분의 1에 불과하다. 인터넷의 정수를 노트북에 담을 수 있도록 압축한 것이다. 테드 창이 초기 버전의 ChatGPT를 웹의 흐릿한 JPEG라고 표현한 것은 옳았다. 하지만 내 생각에, 바로 이 점이 이러한 모델들이 점점 더 지능적으로 발전한 이유다. 창은 자신의 글에서 수백만 개의 산술 예시로 가득 찬 텍스트 파일을 압축하려면 zip 파일을 만들지 않을 것이라고 지적했다. 계산기 프로그램을 작성할 것이다. “텍스트를 이해하는 것이 가장 높은 수준의 압축을 달성하는 방법이다”라고 그는 썼다. 아마도 대규모 언어 모델(LLM)들이 이제 그 일을 시작하고 있는지도 모른다.

In 2003, the machine-learning researcher Eric B. Baum published a book called “What Is Thought?” (I stumbled upon it in my college’s library stacks, drawn by the title.) The gist of Baum’s argument is that understanding is compression, and compression is understanding. In statistics, when you want to make sense of points on a graph, you can use a technique called linear regression to draw a “line of best fit” through them. If there’s an underlying regularity in the data—maybe you’re plotting shoe size against height—the line of best fit will efficiently express it, predicting where new points could fall. The neocortex can be understood as distilling a sea of raw experience—sounds, sights, and other sensations—into “lines of best fit,” which it can use to make predictions. A baby exploring the world tries to guess how a toy will taste or where food will go when it hits the floor. When a prediction is wrong, the connections between neurons are adjusted. Over time, those connections begin to capture regularities in the data. They form a compressed model of the world.

Artificial neural networks compress experience just like real neural networks do. One of the best open-source A.I. models, DeepSeek, is capable of writing novels, suggesting medical diagnoses, and sounding like a native speaker in dozens of languages. It was trained using next-token prediction on many terabytes of data. But when you download the model it is one six-hundredth of that. A distillation of the internet, compressed to fit on your laptop. Ted Chiang was right to call an early version of ChatGPT a blurry JPEG of the web—but, in my view, this is the very reason these models have become increasingly intelligent. Chiang noted in his piece that, to compress a text file filled with millions of examples of arithmetic, you wouldn’t create a zip file. You’d write a calculator program. “The greatest degree of compression can be achieved by understanding the text,” he wrote. Perhaps L.L.M.s are starting to do that.

위 책은 인터넷에서 PDF로 확인하실 수 있습니다.MIT Press가 정리한 요약입니다.

생각이란 무엇인가?에서 에릭 바움은 사고에 대한 계산적 설명을 제안한다. 에르빈 슈뢰딩거가 1944년 고전적 저작 생명이란 무엇인가?에서 DNA 발견 10년 전에 생명이 물리학과 화학의 근본적 수준에서 설명 가능해야 한다고 주장했듯이, 바움은 컴퓨터 과학이 현재 사고와 의미를 설명하지 못한다는 사실이 그러한 설명이 존재할 수 있다는 점을 의심할 이유가 되지 않는다고 주장한다. 바움은 마음의 복잡성이 진화의 결과물이며, 이는 컴퓨터 과학의 표준 알고리즘과는 다르게 작동하는 사고 과정을 구축했다고 주장한다. 또한 마음을 이해하려면 이러한 사고 과정과 이를 생성한 진화 과정을 계산적 용어로 이해해야 한다고 말한다.바움은 마음의 기반에는 세계의 근본 구조에 상응하는 복잡하지만 간결한 프로그램이 있다고 제안한다. 그는 더 나아가 마음이 본질적으로 DNA에 의해 프로그램되었다고 주장한다. 우리는 컴퓨터 과학자들이 지금까지 설명해 온 것보다 더 빠르게 학습하는데, 이는 DNA 코드가 마음이 의미 있는 가능성만을 다루도록 프로그램했기 때문이다. 따라서 마음은 계산 목적으로 의미론, 즉 의미를 활용하여 이해한다. 진화는 그 과정을 가속화하고 올바른 선택을 신속히 내리는 데 생존이 달려 있는 생명체를 구성하기 위한 대응하는 서브루틴이나 지름길을 발견했다. 바움은 사고, 의미, 감각, 의식의 구조와 본질이 따라서 세계의 간결한 구조를 활용하는 프로그램의 진화로부터 자연스럽게 발생한다고 주장한다.

3.
2025년에 읽은 책중 첫손에 꼽으라고 하면 현재까지 “무의식은 어떻게 나를 설계하는가”입니다. 무의식과 관련한 여러 책을 읽었지만 가장 최근 책이고 나에 대한 많은 이해를 할 수 있는 길잡이 같았습니.

책을 읽으면서 든 생각.

흔히 1만시간의 법칙, 정진과 같은 표현을 사용합니다. 무언가를 반복해서 수행합니다. 책을 바르게 이해했는지 모르지만 반복 수행을 통하여 의식적 활동이 무의식적 활동으로 바뀌는 듯 합니다. 이렇게 하는 이유는 아마도 제한된 자원을 효과적으로 사용하기 위한 진화의 결과로 보입니다. 이 점이 AI와 다른지 않을까 합니다. 무한대의 자원을 사용하고 있는 AI와 비록 여러가지 점에서 부족하지만 어떤 부문에서 더 뛰어날 수 있는 인간의 뇌..

그래서 이런 질문을 해보았습니다.

“어떻게 무의식을 만들까?”

습관이 의식을 무의식으로 만드는 과정이 아닐까 생각합니다. 책읽는 습관, 운동하는 습관, 무엇무엇하는 습관. 이런 습관은 의식적인 노력의 결과입니다. 무의식적으로 유튜브를 보거나 핸드폰을 보는 것. 어느 때부터 의식적으로 했던 활동의 결과, 무의식화된 것이 아닐까 합니다.

책에선 의식이 무엇인지 정확히 이야기하지 않았지만 신경세포와 신경세포의 연결망을 시각화한 뇌지도가 혹 의식이 아닐지.

Leave a Comment

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다

이 사이트는 Akismet을 사용하여 스팸을 줄입니다. 댓글 데이터가 어떻게 처리되는지 알아보세요.