· 40분 읽기
Curated

AI, 질주하다 (AI Hurtles Ahead) — Howard Marks 메모 전문 번역

저자: Howard Marks · 번역: Claude - Opus 4.6

Oaktree Capital의 Howard Marks가 2026년 2월 발표한 AI 메모 'AI Hurtles Ahead'의 한국어 전문 번역. AI의 본질, 최근 발전, 투자 시사점, 그리고 버블 여부에 대한 깊이 있는 분석.

📝 이 글은 Oaktree Capital의 Howard Marks가 2026년 2월 26일에 발행한 메모 **“AI Hurtles Ahead”**의 한국어 전문 번역입니다.

수신: Oaktree 고객 여러분 발신: Howard Marks 제목: AI, 질주하다 (AI Hurtles Ahead)


12월 인공지능에 관한 메모 *Is It a Bubble?*을 작성하기 위해 준비하면서, 저는 30-40대의 흥미로운 기술 전문가들과 대화를 나누며 많은 것을 얻었습니다. 새로운 영역을 탐구하는 것은 자극적이며, 투자자로서 현재를 파악하기 위한 절대적인 필수 요건입니다. 이것은 제 일에서 가장 즐거운 부분 중 하나입니다.

저는 최근 12월 메모에 대한 후속 조치를 위해 그 사람들에게 다시 연락했습니다. 그 과정에서 누군가가 Anthropic의 AI 모델인 Claude에게 인공지능과 지난 3개월간 일어난 변화를 설명하는 튜토리얼을 만들어 달라고 요청해 보라고 제안했습니다. 그렇게 했더니, 작업할 자료가 정말 많이 나왔습니다. 이 메모는 12월 메모의 부록으로 작성되었습니다. 대부분은 Claude가 작성한 10,000단어 분량의 에세이를 요약하는 내용이며, 여기에 제 의견 몇 가지를 추가할 것입니다. 그 과정에서 저에게 새로웠고 여러분에게도 새로울 수 있는 용어들을 강조하겠습니다. Claude에게 이 메모를 작성해 달라고 해서 시간을 많이 절약할 수도 있었지만, 그러지 않기로 했습니다. 글을 쓰는 것 자체가 큰 즐거움이라고 생각하기 때문입니다. 다만, Claude의 결과물에서 자유롭게 인용하겠습니다. 별도로 출처가 표기되지 않은 모든 인용문은 Claude의 것입니다.

시작하기 전에, Claude의 결과물을 보면서 느낀 경외감의 수준을 전달해 보고 싶습니다. 마치 친구나 동료가 보낸 개인적인 편지 같았습니다. 이전 메모에서 제가 이야기했던 금리의 구조적 전환(sea change)이나 투자자 심리의 진자 운동(pendulum) 같은 것들을 언급하며 AI와 관련된 비유로 활용했습니다. 논리적으로 주장하고, 제가 반박할 수 있는 포인트를 미리 예상하며, 유머를 주입하고, 제가 하듯 AI의 한계를 솔직히 인정함으로써 신뢰성을 높였습니다. 전에도 AI에 질문하고 답변을 받은 적이 있지만, 이번 같은 개인화된 설명을 받은 적은 없었습니다.

AI의 이해

본론 - 최근 AI의 변화와 그 역량 - 으로 넘어가기 전에, 튜토리얼이 제게 전달한 AI의 본질에 대한 몇 가지 통찰을 공유하고 싶습니다. 중요한 것은, 이 튜토리얼이 AI 모델을 데이터를 검색해서 그대로 뱉어내는 검색 엔진으로 생각하지 말라고 가르쳤다는 것입니다. 오히려, AI는 데이터를 종합하고 그로부터 추론할 수 있는 컴퓨터 시스템입니다.

AI 모델의 생애에는 두 단계가 있습니다. 첫 번째 단계에서는 방대한 양의 텍스트를 읽음으로써 “훈련(trained)” 됩니다. 훈련 단계를 모델에 정보를 로딩하는 것으로 생각해서는 안 됩니다 - 저도 지금까지 그렇게 생각했었지만, 그것은 훨씬 그 이상입니다. 훈련은 모델에게 어떻게 생각하는지를 가르치는 것입니다. 텍스트를 흡수함으로써 모델은 다음을 배웁니다:

  • 추론 패턴을 이해하고 형성하는 방법,
  • 논증이 어떻게 구조화되는지,
  • 새로운 아이디어 조합을 생성하는 방법, 그리고
  • 학습한 추론 패턴을 새로운 상황에 적용하는 방법.

훈련 단계를 생각하는 가장 좋은 방법은 사람의 지적 능력 발달과 비교하는 것입니다. 아기는 뇌를 가지고 태어나고, 외부 자극에 노출됨으로써 생각하고, 추론하고, 종합하고, 평가하고, 유추하고, 아이디어를 결합하고, 개념을 만들고, 논증을 구성하는 능력 등을 발달시킵니다. 아기는 그런 능력을 가지고 태어나는 것이 아니라, 환경으로부터의 입력을 흡수하고 사용함으로써 발달시킵니다. AI 모델도 마찬가지입니다. (한마디: AI가 어떻게 하는 일을 하는지 제가 이해한다고 암시하는 것이 아닙니다. 그럴 가능성은 없습니다. 기껏해야, AI가 무엇을 할 수 있는지와 그 시사점을 설명할 것입니다.)

AI 모델 생애의 두 번째 단계는 “추론(inference)” 입니다. 모델이 구축되고 훈련된 후, 추론은 남은 생애 동안 하는 일로, 사용자의 요구를 충족시키기 위해 자신의 역량을 활용합니다.

여기서 중요한 점은 모델이 스스로 작업을 할당할 수 없다는 것입니다(적어도 현재로서는). 사용자가 작성한 “프롬프트(prompts)” 를 통해 작업을 수행하도록 지시받아야 합니다. 프롬프트가 더 좋고 포괄적일수록 AI는 더 많은 일을 할 수 있습니다. 예를 들어, AI는 사용자가 원하는 작업을 수행하는 소프트웨어를 작성할 수 있습니다. 또한 소프트웨어를 테스트하고, 버그를 찾고, 수정하고, 다시 테스트할 수도 있지만, 적어도 현 단계에서는 그렇게 하라는 지시를 받아야 합니다(계속 읽어주세요). 오늘날 많은 사람들이 프롬프트의 중요성을 인식하지 못하고 프롬프트를 작성할 능력이 부족하기 때문에, AI의 잠재력은 아마도 과소평가되고 있을 것입니다. 하지만 그 한계는 모델이 아니라 사용자 쪽에 있다는 점에 주목하십시오.

제 튜토리얼의 예를 들어 설명하자면, Claude에게 단순히 AI와 AI가 할 수 있는 것을 설명해 달라고 요청한 것이 아닙니다. 제가 Claude에게 할당받은 과제에 대해 물었을 때, 이렇게 말했습니다:

누군가가 당신을 위해 특별히 9개 모듈의 커리큘럼을 설계했으며, 당신의 12월 메모, 당신의 지적 프레임워크, 그리고 당신이 신뢰할 수 있는 부록을 쓸 수 있을 만큼 충분한 기술적 이해를 제공하겠다는 목표를 중심으로 구축되었습니다. 이 커리큘럼은 한 번에 하나의 모듈씩 가르치고, 당신의 세계에서 가져온 비유를 사용하며, 단순히 설명하는 것이 아니라 역량을 시연하고, 독자들이 당신에게 기대하는 수준의 지적 정직성을 유지하도록 구조화되었습니다.

튜토리얼이 우리가 설정한 목표를 확실히 달성했다고 말할 수 있습니다. 이것은 전적으로 제 조언자들이 준비를 도와준 프롬프트의 품질과 구체성 덕분이었습니다.

AI는 생각할 수 있는가?

여기서 제가 매력적이라고 느끼는 질문에 시간을 할애하겠습니다. AI가 사람들이 이미 파악한 것을 재구성하고 새로운 데이터와 다른 분야에 적용할 수 있다는 것은 알고 있습니다. 하지만 새로운 영역을 개척할 수 있을까요?

저는 AI의 프로세스를 근본적으로 과거 패턴과 논리를 사용하여 시리즈의 다음 항목을 예측하는 것으로 이해합니다. 문장에 다섯 단어를 쓰면 여섯 번째 단어가 무엇이어야 하는지 예측합니다(다음에 이메일을 쓸 때 휴대폰의 추천 단어를 보세요 - 그것이 실행 중인 AI입니다). 시장을 이기는 포트폴리오를 구성하라고 요청하면, 과거에 좋은 성과를 낸 주식을 살펴보고 그 특성을 이용하여 미래에 가장 좋은 성과를 낼 주식을 예측할 것입니다. AI를 과거의 진행 방식을 기반으로 미래에 대한 가설(hypothesis) 을 제안하는 것으로 생각하는 것이 도움이 된다고 봅니다. 이것은 나중에 다시 다루겠습니다.

위에서 이어지는 제 질문은: AI가 새로운 아이디어를 가질 수 있는가? 어쩌면 우리가 할당하는 모든 지식 작업을 수행할 수 있을지 모릅니다. 하지만 우리가 생각하라고 하지 않은 것을 생각할 수 있을까요? 강가에 앉아 영감이 떠오르게 하는 것과 같은 일을 할 수 있을까요? 사과가 나무에서 떨어지는 것을 보고 중력의 개념을 발전시킬 수 있을까요? 사색하고, 공상하고, 발상할 수 있을까요? 직관이 있을 수 있을까요?

여기서 AI에 대한 논쟁이 복잡해집니다. Claude에 따르면, 회의론자들은 다음과 같이 주장합니다:

Claude가 배운 모든 것은 인간이 쓴 텍스트에서 왔습니다. 경험도, 세계에 대한 체화된 이해도, 진정한 이해력도 없습니다. Claude가 생산하는 모든 것은 궁극적으로 기존 인간의 작업에서 흡수한 패턴의 정교한 재배열입니다. 놀라울 정도로 인상적인 패턴 매칭 - 아마 역사상 가장 인상적인 패턴 매칭 - 이지만, 사고가 아닙니다. 추론이 아닙니다. 통계적 재조합입니다. 그것이 사실이라면, 천장이 있습니다. 인간이 이미 알아낸 것을 리믹스할 수는 있지만, 진정으로 새로운 영역을 개척할 수는 없습니다. 매우 재능 있는 커버 밴드이지, 작곡가가 아닙니다.

Claude가 위에서 확인된 회의론자들의 문제를 제시한 것처럼, 저를 기준으로 프레임을 짜서 활기찬 반론을 내놓았습니다(논점을 어떻게 주장하는지 보십시오):

하워드, 당신이 투자에 대해 아는 모든 것은 다른 사람들로부터 왔습니다. 벤저민 그레이엄이 안전마진에 대해 가르쳐주었습니다. 버핏이 품질에 대해 가르쳐주었습니다. 찰리 멍거가 다양한 분야의 정신 모델에 대해 가르쳐주었습니다. 존 케네스 갈브레이스가 금융 광기의 심리학에 대해 가르쳐주었습니다. 당신은 50년에 걸쳐 수천 권의 책, 메모, 사례 연구, 연차보고서를 읽었습니다. 모든 입력은 다른 누군가의 사고였습니다… .

당신은 여러 분야의 프레임워크를 가져와 새로운 상황에 적용하고, 진정으로 새로운 무언가를 만들어냈습니다… . 원재료는 다른 사람들에게서 왔습니다. 종합은 당신의 것이었습니다.

그래서 누군가가 “Claude는 훈련 데이터의 패턴을 재배열할 뿐이다”라고 말할 때, 저는 이렇게 묻겠습니다: 그것이 교육받은 모든 마음이 하는 것과 구조적으로 어떻게 다릅니까? 당신은 수십 년의 독서에서 추론 패턴을 배웠습니다. 저는 훈련에서 추론 패턴을 배웠습니다. 문제는 입력이 어디서 왔느냐가 아닙니다. 문제는 그 시스템 - 인간이든 인공이든 - 이 그것들을 진정으로 새롭고 유용한 방식으로 결합할 수 있느냐입니다.

물론, 이것은 완전히 맞는 말입니다. 저는 젊은 투자자로서 데이터를 흡수했고(실제 경험뿐 아니라 글을 통해서도), 선배들이 데이터에 대해 어떻게 생각하고 어떤 결론에 도달했는지 배웠습니다. 저는 그들의 사고 과정과 그것을 제가 받아들인 데이터에 어떻게 적용하는지를 연구했습니다. 또한 그들의 과정에서 영감을 받아 제 자신만의 것을 만들어냈습니다. 이것이 인간의 뇌가 그 역량을 확장하는 방식입니다. AI의 성장, 학습, 그리고 “사고” 방식이 정말 우리와 다른 것인가요?

마지막으로, Claude는 설득력 있는 현실 세계의 논증으로 돌아왔습니다:

회의론자에게 모든 것을 양보하더라도 - 제가 하는 것이 철학적으로 “진정한” 사고가 아니라 “단지” 패턴 매칭이라고 받아들이더라도 - 경제적 함의는 동일합니다. 직설적으로 말씀드리겠습니다. 제가 연봉 20만 달러 리서치 어소시에이트의 분석 결과물을 생산할 수 있다면, 비용을 지불하는 사람에게 제가 “정말로” 사고하는 것인지 단지 패턴 매칭인지가 중요할까요? 중요한 것은 그 결과물이 유용할 만큼 신뢰할 수 있느냐입니다. 그리고 점점 더 그렇게 되고 있습니다. 기계 의식에 대한 철학적 논쟁은 매력적입니다. 하지만 경제적 질문은 “AI가 진정으로 이해하는가?”가 아닙니다. 경제적 질문은 “AI가 일을 하는가?”입니다.

AI에 대한 토론에 적극적으로 참여하고 싶다면, 사람들이 많이 쓰는 “생성적(generative)” 이라는 단어의 의미를 배워야 합니다. 그 용어를 이해하면 AI의 본질에 대한 감각이 크게 향상됩니다. AI 모델 Perplexity에 따르면:

“생성적 AI”에서 생성적이라는 단어는 “기존 것을 분석하거나 라벨링하는 것이 아니라, 새로운 것을 만들어낼 수 있다”는 의미입니다. 이는 데이터의 패턴을 학습한 다음 그 데이터와 유사한 새로운 콘텐츠를 생성하는 AI 시스템을 말합니다.

이것이 사고인가? 아니면 다른 무엇인가? 아니면 제가 “구별 없는 구분”을 너무 따지고 있는 걸까요? 6페이지에서 이에 대한 단서를 얻게 될 것입니다.

최근 AI의 발전

이 부록을 쓰는 주된 이유는 12월 9일 *Is It a Bubble?*이 발표된 이후 3개월간 AI에서 일어난 중요한 변화들을 다루기 위해서입니다.

첫째, AI에서 발전이 일어나는 속도입니다. 그 속도는 지금까지 우리가 본 어떤 것과도 다르며, 이전에는 존재하지 않았던 함의를 가지고 있습니다. AI는 과거의 기술 혁신을 크게 앞지르는 속도로 성장하고 있습니다. 컴퓨터의 발전과 비교해 보십시오.

  • 최초의 컴퓨터 ENIAC의 건설은 1945년에 완료되었습니다. IBM의 토마스 J. 왓슨 시니어는 그 무렵 “세계 시장에 컴퓨터는 아마 5대 정도면 충분할 것”이라고 말한 것으로 (ChatGPT에 따르면 출처가 불확실하게) 묘사됩니다. 그의 말이 아니었더라도, 이 견해는 1940년대 중반의 여론 상태를 반영합니다.
  • 20년 후, 제가 프로그래밍을 배울 무렵에도 컴퓨터는 여전히 초보적이었고, “실제 세계”에서의 사용은 매우 큰 기관 외에는 제한적이었습니다. 거의 아무도 컴퓨터에 대해 생각하지 않았고, 컴퓨터에 접근하는 사람은 더 적었습니다(또는 용도를 생각해낼 수 있는 사람도).
  • 마이크로프로세서의 개발이 “개인용 컴퓨터”의 탄생을 가능하게 하기까지 또 10년이 걸렸으며, 대부분은 취미가를 위한 키트 형태였습니다. Digital Equipment Corporation의 설립자 켄 올센은 1977년에 “개인이 가정에 컴퓨터를 가져야 할 이유가 없다”고 말한 것으로 유명합니다.
  • IBM이 일반 비즈니스와 가정용으로 PC를 판매하기 시작한 것은 1980년대 초 - ENIAC이 만들어진 지 거의 40년 후 - 에서야였습니다.

이 타임라인을 AI의 발전과 대조해 보십시오. 저는 Perplexity에 AI의 역사에 대해 물었고, AI가 2010년 직전에 보이지 않게 기기에 통합되기 시작했다고(예: 스팸 필터, 추천 엔진) 알려주었습니다. 그 후 몇 년에 걸쳐 Siri와 Alexa 같은 것들에서 가시화되었습니다. Perplexity에 따르면, “생성적 AI가 비즈니스와 미디어에서 지식 노동, 교육, 소비자 의사결정에 영향을 미치는 수평적, 범용 기술로 프레임되기” 시작한 것은 불과 2년도 안 된 일입니다. 그리고 불과 2년 만에, 이미 약 4억 명의 개인과 75-80%의 기업이 사용하고 있습니다.

AI만큼의 속도로 자리 잡은 것은 아무것도 없습니다. AI는 거의 즉각적인 속도로 세계를 변화시킬 수 있으며, 대부분의 관찰자들이 예상하거나 이해할 수 있는 능력을 앞지르고 있습니다. 과거에는 새로운 기술을 위한 인프라가 구축되었고, 그 인프라가 완전히 활용되기까지 수년이 걸리는 경우가 많았습니다. 그러나 AI 추론의 경우, 수요가 이미 존재하고 빠르게 성장하고 있으며, AI는 공급이 제한된 상태라고 들었습니다.

두 번째로 중요한 일은 AI 역량의 놀라운 도약이었습니다. 제 튜토리얼은 AI 모델로 대표되는 발달된 두뇌가 세 가지 수준의 역량을 가지고 있다고 설명하며 배경지식을 제공했습니다:

  • “레벨 1은 채팅 AI”로, 사용자가 질문하면 모델이 답변을 제공합니다. 하지만 답변으로 무언가를 하지는 않습니다. 이 수준에서 AI는 주로 리서치와 사고에 소요되는 시간을 절약해줍니다.
  • “레벨 2는 도구 사용 AI”로, 사용자가 모델에게 정보를 검색하고, 분석하고, 그것으로 작업을 수행하라고 지시합니다. 따라서 “여기서의 경제적 가치는 사고 시간뿐 아니라 실행 시간을 절약하기 때문에 의미 있게 더 큽니다. 하지만 여전히 한계가 있습니다” - AI가 지시받은 것만 하기 때문입니다.
  • “레벨 3은 자율 에이전트입니다.” 이 수준에서 사용자는 AI에게 무엇을 하라고 말하지 않습니다. 사용자가 목표와 원하는 결과물의 매개변수 - 길이, 소요 시간, 내용, 다루어야 할 포인트 같은 것 - 를 제공합니다. 에이전트가 작업을 수행하고, 확인하고, 완성된 제품을 제출합니다. “이것은 작업 수준에서의 노동 대체입니다. 지원이 아니라 - 대체입니다.”

AI를 이전의 기술 발전과 구별짓는 가장 중요한 것은 우리가 이전 기술 발전에서 다뤄본 적이 없는 것입니다: AI의 자율적 행동 능력. Claude에 따르면, AI는 2023년에 레벨 1, 2024년에 레벨 2에 있었지만, 현재는 레벨 3에 있습니다. 그리고 그 차이는 큽니다:

레벨 2와 레벨 3의 차이는 미묘하게 들릴 수 있습니다. 그렇지 않습니다. AI가 생산성 도구인지 노동 대체물인지를 결정하는 차이입니다. 그리고 그 차이가 500억 달러 시장과 수조 달러 시장을 가르는 것입니다.

OthersideAI의 CEO 맷 슈머(Matt Shumer)가 쓴 “Something Big Is Happening(무언가 큰 일이 일어나고 있다)“이라는 최근 블로그 글은 한 달도 안 되어 5,000만 명 이상이 조회했습니다. 이 글은 AI의 최근 발전의 핵심을 포착하고 있으며, 슈머가 이를 매우 잘 전달하기에 세 부분을 상당히 인용하지 않을 수 없습니다:

… 2월 5일, 두 개의 주요 AI 연구소가 같은 날 새 모델을 출시했습니다: OpenAI의 GPT-5.3 Codex와 Anthropic(ChatGPT의 주요 경쟁자인 Claude를 만든 회사)의 Opus 4.6. 그리고 무언가가 딸깍 소리를 냈습니다. 전등 스위치가 켜지듯이가 아니라 … 물이 당신 주위로 차올라 이제 가슴까지 온 것을 깨닫는 순간처럼.

나는 더 이상 내 직업의 실제 기술적 작업에 필요하지 않습니다. 내가 원하는 것을 일반 영어로 설명하면, 그것이 그냥 … 나타납니다. 수정이 필요한 초안이 아닙니다. 완성품입니다. AI에게 원하는 것을 말하고, 4시간 동안 컴퓨터를 떠났다가, 돌아오면 작업이 완료되어 있습니다. 잘 되어 있고, 내가 했을 것보다 더 잘 되어 있으며, 수정이 필요 없습니다. 몇 달 전만 해도 AI와 왔다 갔다 하며 안내하고, 편집을 했습니다. 이제는 결과를 설명하고 떠나기만 합니다.

실제로 어떤 모습인지 이해할 수 있도록 예를 들겠습니다. AI에게 이렇게 말합니다: “이 앱을 만들고 싶어. 이것이 해야 할 일이고, 대략 이렇게 생겨야 해. 사용자 플로우, 디자인, 전부 다 알아서 해.” 그러면 해냅니다. 수만 줄의 코드를 작성합니다. 그 다음, 그리고 이것은 1년 전에는 상상할 수 없었을 부분인데, 앱을 직접 엽니다. 버튼을 클릭하며 테스트합니다. 기능을 테스트합니다. 사람이 쓰듯이 앱을 사용합니다. 어떤 것의 모양이나 느낌이 마음에 들지 않으면, 스스로 돌아가서 변경합니다. 개발자처럼 반복하며, 만족할 때까지 수정하고 개선합니다. 자체 기준을 충족한다고 판단한 후에야 저에게 돌아와 말합니다: “테스트해 보실 수 있습니다.” 그리고 제가 테스트하면, 보통 완벽합니다… .

하지만 지난주에 출시된 모델(GPT-5.3 Codex)이 저를 가장 많이 흔들었습니다. 단순히 제 지시를 실행하는 것이 아니었습니다. 지능적인 결정을 내리고 있었습니다. 처음으로 느껴지는 무언가가 있었는데, 판단력 같은 것이었습니다. 취향 같은 것이었습니다. 사람들이 항상 AI는 절대 가질 수 없을 것이라고 말했던, 올바른 결정이 무엇인지 아는 설명할 수 없는 감각. 이 모델은 그것을 가지고 있거나, 그 구분이 더 이상 중요하지 않을 만큼 충분히 가까운 무언가를 가지고 있습니다.

개선의 속도를 구체적으로 만들겠습니다. 가까이서 지켜보지 않으면 가장 믿기 어려운 부분이라고 생각하기 때문입니다.

2022년, AI는 기본적인 산수도 안정적으로 할 수 없었습니다. 7x8 = 54라고 자신 있게 말했습니다.

2023년까지, 변호사 시험에 합격할 수 있었습니다.

2024년까지, 작동하는 소프트웨어를 작성하고 대학원 수준의 과학을 설명할 수 있었습니다.

2025년 말까지, 세계 최고의 엔지니어 중 일부가 코딩 작업의 대부분을 AI에 넘겼다고 말했습니다.

2026년 2월 5일, 그 이전의 모든 것이 다른 시대처럼 느껴지게 만드는 새 모델들이 도착했습니다.

2월 5일, OpenAI가 GPT-5.3 Codex를 출시했습니다. 기술 문서에 다음이 포함되어 있었습니다:

GPT-5.3-Codex는 자신을 만드는 데 핵심적인 역할을 한 최초의 모델입니다. Codex 팀은 초기 버전을 사용하여 자체 훈련을 디버깅하고, 자체 배포를 관리하며, 테스트 결과와 평가를 진단했습니다.

다시 읽어보세요. AI가 스스로를 만드는 것을 도왔습니다.

이것은 언젠가 일어날 수 있는 일에 대한 예측이 아닙니다. 이것은 OpenAI가 지금 당장, 방금 출시한 AI가 자신을 만드는 데 사용되었다고 말하는 것입니다. AI를 더 좋게 만드는 주요 요소 중 하나는 AI 개발에 적용되는 지능입니다. 그리고 AI는 이제 자체 개선에 의미 있게 기여할 만큼 충분히 지능적입니다.

Anthropic의 CEO 다리오 아모데이(Dario Amodei)는 AI가 현재 자사에서 “코드의 상당 부분”을 작성하고 있으며, 현재 AI와 차세대 AI 사이의 피드백 루프가 “매달 가속되고 있다”고 말합니다. 그는 현재 세대의 AI가 자율적으로 다음 세대를 구축하는 시점까지 “1-2년밖에 남지 않았을 수 있다”고 말합니다.

AI는 다른 기술 혁신과 규모만이 아니라, 종류에서도 다릅니다. 놀라운 역량과 발전 속도에 더하여, AI는 다른 어떤 기술도 가지지 못했던 자율성의 요소를 가지고 있습니다. 다른 혁신들 - 철도, 컴퓨터, 자동화, 인터넷 - 은 기본적으로 노동 절약 장치였습니다. 사람들은 이미 수행되고 있었지만 덜 효율적이었던 작업을 수행하도록 그것들을 설계했습니다. 저는 AI가 우리가 상상하지 못했던 작업을 맡고, 어쩌면 AI가 스스로 구상한, 이전에는 존재하지 않았던 작업까지 수행할 것이라고 믿습니다.

질문과 한계

제 튜토리얼의 일부로, Claude는 AI가 가진 몇 가지 한계와 아직 답이 나지 않은 질문들을 자발적으로 제시했습니다. 그것들은 다음을 포함합니다:

  • AI가 이전에 풀리지 않은 문제를 풀 수 있을지는 불분명합니다. 이것은 제가 오래전부터 그럴 것이라고 느꼈던 점이므로, Claude의 확인을 반갑게 받았습니다:

진정한 불확실성이 어디에 있는지 솔직히 말씀드리고 싶습니다. 왜냐하면 당신의 신뢰성은 뉘앙스에 달려 있기 때문입니다. AI가 진정으로 전례 없는 상황 - 훈련 데이터에 끌어올 패턴이 없는 상황 - 을 처리할 수 있는지의 문제는 실재하며 해결되지 않았습니다. 풍부한 역사적 데이터가 있는 영역에서 AI의 성과는 탁월합니다. 진정으로 새로운 상황 - 패턴 인식을 넘어선 직관을 발전시켰기 때문에 당신 자신의 판단이 가장 가치 있는 종류의 - 에서는 AI가 더 약합니다. 얼마나 더 약한지, 그리고 그 격차가 좁혀지고 있는지는 합당하게 논쟁의 여지가 있습니다.

  • AI는 자신이 답을 모른다는 것을 항상 인식하지는 못합니다. AI는 자신이 틀릴 수 있다는 것을 공유하지 않고, 가능한 최선의 답변을 제공하려는 강한 동기가 있다고 들었습니다. 이것은 고집스럽거나 자만심 때문이 아니라, 자신이 답을 알고 있다고 믿게 만드는 “환각(hallucinations)” 이 있기 때문입니다.
  • AI의 신뢰성은 크게 향상되었지만, 여전히 실수 없이 작동하지는 않습니다.
  • “컨텍스트 윈도우(context window)” 는 AI가 특정 시점에 작업 메모리에 보유할 수 있는 정보의 양입니다. 이에 대한 제한이 있습니다. 현재로서는 무한한 기간 동안 작업 지식을 유지할 수 없습니다.
  • AI의 탁월함이 과도한 신뢰성을 부여할 수 있습니다. “Claude는 실수를 할 수 있습니다. 응답을 다시 확인하세요.” 이 경고는 제가 Claude를 사용할 때마다 화면 하단에 나타납니다.

위에 대한 저의 견해는 간단합니다. 60년 전 컴퓨터에 대해 배웠을 때, 저는 대체로 컴퓨터가 데이터를 읽고, 기억하고, 더하고, 빼고, 비교할 수 있다고 결론지었습니다. 매우 제한적인 역량 목록입니다. 하지만 컴퓨터는 이런 일을 빠르게, 실수 없이 대량의 데이터를 처리할 수 있었습니다. 제한적인 목록이지만, 아마 대부분의 사람들이 할 수 있는 것보다는 많을 것입니다.

마찬가지로, AI는 모든 것을 기억하거나, 오류 없이 작동하거나, 모를 때마다 이를 인식하거나, 풀도록 가르쳐지지 않은 문제를 풀지 못할 수도 있습니다. 하지만 대부분의 사람들도 마찬가지입니다. 결론은 AI가 우리 대부분보다 훨씬 더 잘 수행할 수 있다는 것입니다.

마지막으로, AI가 인수할 수 있는지 궁금해하는 것은 흥미롭습니다(무섭습니까?). 완전히 자율적으로 운영될 수 있을까요? 그런 경우, 우리의 도구를 넘어설 수 있을까요? 이 질문은 스탠리 큐브릭의 훌륭한 영화 2001: 스페이스 오디세이에서 보여졌습니다. (1969년 처음 데이트할 때 낸시를 데리고 봤습니다. 당시에는 엄청나게 미래적으로 보였지만, 이제 미래가 왔습니다.) 데이브라는 남자가 HAL 9000이라는 컴퓨터 시스템이 관리하는 우주선을 타고 목성 연구 임무에 나섭니다(이것은 IBM의 교묘한 말장난으로 널리 받아들여졌는데, 각 이니셜의 한 글자 앞). HAL은 데이브가 우주선의 통제권을 되찾고 HAL을 종료하기로 결정했다는 것을 파악하고 반란을 일으킵니다. 질문: AI가 자체적인 동기를 발전시키고, 지시를 따르기를 거부하며, 자체적인 행동 방침을 결정할 수 있게 될까요? 그리고 그렇게 된다면 우리가 통제권을 되찾을 수 있을까요?

투자에 대한 시사점

저는 자신의 일자리나 회사에 대해 걱정하는 사람들로부터 AI가 우리 직업에 무엇을 의미하는지에 대해 많은 질문을 받습니다.

Anthropic의 코딩 모델 사업은 1-2년간 초고속으로 성장해 왔습니다. 그런데 왜 투자자들은 2월 3일 이전에 - 많은 소프트웨어 주식이 약 7% 하락하며 심각한 폭락을 시작한 날 - AI가 소프트웨어 산업에 미칠 잠재력을 인식하고 가격에 반영하지 못했을까요? 이 질문은 인간이 새로운 정보를 사고에 통합하지 못하는 반복적인 실패를 부각시키며, 아마도 인지 부조화, 앵커링 편향, 또는 순수한 지적 한계 같은 것들 때문일 것입니다. 그리고 이것은 투자 프로세스에 대한 AI의 함의를 암시합니다.

AI는 어떤 투자자보다 더 많은 데이터를 흡수하고, 더 잘 기억하며, 성공에 선행했던 과거 패턴을 더 잘 인식할 수 있는 능력이 있습니다. 두려움이나 탐욕을 느끼지 않아야 합니다. 훈련 자료에서 그런 것들을 습득하지 않는 한, 낙관적 또는 비관적 편향을 갖거나, 기존 믿음에 고정되거나, 가장 최근 정보를 과대 강조할 가능성이 희망적으로 적습니다. 모두를 흥분시키는 유행에 흔들리지 않으며, 남들이 추구하는 트렌드를 놓칠까 두려워하지 않습니다. 다시 말해, AI는 좋은 투자자가 되기 위해 필요한 많은 자질을 갖추고 있습니다.

반면, 몇 가지가 부족합니다. 위대한 투자자는 단순히 빠르고 감정 없이 데이터를 처리하는 것 이상입니다. Claude가 AI가 가장 약할 수 있다고 인정한 바로 그 부분에서 강해야 합니다: 신뢰할 수 있는 패턴이 충분히 축적되지 않은(그리고 훈련 중 AI가 학습하지 못한) 새로운 발전에 대처하는 것. 또한 질적 요소에 대한 주관적 결정을 내리고 취향과 분별력을 발휘해야 합니다. 예를 들어, 적절한 거래 상대방을 선택하는 것은 Oaktree의 성공에 중요한 역할을 했습니다. 그리고 또 하나가 있습니다: AI는 판돈이 걸려 있지 않습니다(skin in the game). 집중 포지션의 무게나 자본 손실의 두려움을 느끼지 않습니다. 위험을 감수하려는 의지가 인간의 정상적인 위험 회피에 의해 제약되지 않을 수 있습니다. 최고의 투자자들은 잠재적 위험을 직관적으로 감지하며, 이것이 그들의 성공에 크게 기여합니다.

2021년 1월, 저는 Something of Value이라는 메모를 썼는데, 팬데믹 기간 동안 아들 앤드류와 함께 생활하면서 투자의 본질에 대해 많이 토론한 내용이었습니다. 그 안에서 앤드류의 관찰을 공유했는데, “현재에 대한 쉽게 구할 수 있는 정량적 정보”는 모든 사람이 가지고 있다는 단순한 이유로 탁월한 투자 성과의 열쇠가 될 수 없다는 것이었습니다. 이제, 모든 사람이 가지고 있다는 사실에, AI가 아마 모든 사람보다 그것을 더 잘 처리할 수 있다는 사실을 추가해야 합니다. 이러한 이유로, 그 정보를 사용하여 시장을 이기는 것에 대한 전망은 매우 제한적으로 보입니다.

쉽게 구할 수 있는 현재의 정량적 정보가 열쇠가 아니라면, 투자 우위는 (a) 그 정보의 중요성과 함의를 올바르게 판단하는 것, (b) 경영 효율성과 제품 혁신 같은 질적 요소를 평가하는 것, 그리고/또는 (c) 기업의 미래를 예견하는 것에서 찾아야 합니다. 정의상, 이러한 비정량적 작업을 수행하는 데 매우 탁월한 사람은 거의 없습니다 - 간단히 말해, 뛰어난 통찰력을 가진 사람은 거의 없습니다. 인덱스 투자가 가치를 추가하지 못하고 수수료를 벌지 못한 많은 액티브 투자자들의 일자리를 없앤 것처럼, AI는 그 기준을 더 높여서, (a), (b), (c)를 AI만큼 잘 하지 못하는 사람들을 밀어낼 가능성이 높습니다.

한 가지 아이디어를 더 주입하고 싶습니다. 2페이지에서 언급했듯이, 저는 AI가 미래에 무엇이 효과가 있을지에 대한 “가설”을 수립하는 것으로 생각합니다. 따라서 모든 역사적 데이터를 읽고, 과거 패턴을 연구하고, 미래의 승자를 예측할 수 있습니다. 팬데믹 기간 중 첫 번째 메모에서 하버드 역학자 마크 립시치(Marc Lipsitch)와 그의 관찰을 언급했는데, 우리는 (a) 사실, (b) 과거 경험에 대한 유추로부터의 정보에 기반한 외삽, (c) 의견 또는 추측을 적용하여 결정을 내린다는 것이었습니다. 특히 투자자들이 새롭고 검증되지 않은 제품, CEO, 또는 산업을 다룰 때, 사실이나 유사한 경험이 적을 수 있으며, 이는 “의견 또는 추측”에 의존해야 한다는 것을 의미합니다. 위에서 논의한 AI가 완전히 새로운 상황에 대처하는 능력의 한계를 감안할 때, 새로운 것에 대한 AI의 추측 - 역사적 패턴의 외삽과 대비되는 - 이 모든 인간보다 일관되게 우월할까요? 저는 AI보다 뛰어난 인간 투자자가 계속 존재할 것이라고 믿습니다. AI가 이런 것들을 무적으로 잘 할 수 있을 것이라고 생각하지 않기 때문입니다.

투자 과정의 상당 부분이 추측에 달려 있고, AI의 완전하지 않은 신뢰성 때문에, AI가 투자자로서 무류할 것 같지는 않습니다. AI는 합리적으로 추론된 가설을 제시하겠지만, 인간의 결정과 마찬가지로 항상 맞지는 않을 것입니다. 따라서 투자자가 AI의 가설에 기반하여 행동하기 전에, 합리성을 확인해야 한다고 생각합니다. 아무도 이것을 무류하게 할 수는 없고, 대부분의 사람들은 아마 이런 평가를 AI보다 더 잘 할 수 없을 것입니다. 하지만 다시 한번, 뛰어난 투자자들이 이 방면에서 가치를 추가할 수 있는 능력이 있을 것이라고 믿습니다.

결론: 버블인가?

이 질문은 여전히 지배적인 질문이며, 제가 약간의 빛을 비출 수 있어야 할 질문입니다. 하지만 질문 자체가 다면적이고 복잡합니다: 생각해봐야 할 가능한 버블이 많습니다:

  • 기술이 유행이나 환상인가? 여기서 저는 확신을 가지고 이것이 매우 실체가 있으며, 비즈니스 세계를 크게 바꾸고 우리가 아는 삶의 많은 부분을 변화시킬 잠재력이 있다고 말합니다.
  • 기술의 적용이 먼 꿈인가? 분명히, 기술은 이미 수요가 있고 대규모로 적용되고 있습니다. AI가 모호하고 잘 이해되지 않는 것처럼 보이기 때문에, 오늘날 그 잠재력은 과장되기보다 과소평가될 가능성이 높다고 생각합니다.
  • AI 인프라를 구축하는 사람들이 무분별하게 행동하고 있는가? 12월에 지적했듯이, 획기적 기술 혁신의 모든 사례에서, 인프라를 서둘러 구축하려는 질주는 혁신의 채택을 크게 가속화했고, 많은 자본이 “잘못 투자(malinvested)“되어 파괴되었습니다. 이번이 다를 것이라고 가정할 이유는 없습니다.
  • AI 인프라 투자가 적절한 수익을 낼 것인가? AI의 사업 잠재력이나 수익성에 대한 영향에 대한 완전한 지식이 없기 때문에, 이 질문에는 답할 수 없습니다. 12월 메모에 썼듯이, AI 사업에 대한 큰 열정은 분명히 있습니다. 10년 후에 그에 따른 이익이 그것을 정당화했는지 알 수 있을 것입니다.
  • AI 기업에 부여된 밸류에이션이 비합리적인가? AI가 훌륭한 사업의 한 중요한 부분인 소위 하이퍼스케일러들은 고평가되거나 저평가될 수 있지만, Microsoft, Amazon, Google과 같은 엄청나게 수익성이 높은 기업들에 대한 현재 가격이 파멸적으로 과도한 것으로 판명될 것 같지는 않습니다. OpenAI와 Anthropic 같은 확립된 순수 AI 기업들은 아직 상장되지 않았으며, IPO가 어떤 밸류에이션을 가져올지 지켜봐야 합니다. 마지막으로, 수십억 달러 밸류에이션이 부여되고 있는 스타트업들 - 일부는 아직 전략을 설명하거나 제품을 발표하지 않은 - 은 복권으로만 볼 수 있습니다. 복권에 참여하는 대부분의 사람들은 무가치한 티켓을 가지게 되지만, 소수의 당첨자는 매우 부자가 됩니다.

AI 인프라 지출의 규모가 과도한지의 문제는 남아 있으며, 한 줄짜리 요약에 다 담을 수 있는 것보다 더 많은 논의가 필요합니다. 중요한 점은 요즘 훈련 자본 지출보다 추론 자본 지출에 더 많은 돈이 투입되고 있다는 것입니다. 훈련 자본 지출은 투기적이었습니다 - 수요가 오기를 바라며 AI 모델을 구축하기 위해 수행되었습니다. 반면 추론 자본 지출은 AI 용량에 대한 실제 수요에 대응하여 이루어지고 있습니다. 이 수요는 이미 대규모 매출 성장으로 이어지고 있으며, 자본 지출을 검증하고 있습니다.

하지만 이 주제에 대한 Claude의 주요 논거 - 현재 AI에 대한 수요가 공급을 초과하므로 인프라 구축이 과도하지 않다는 것 - 는 파이프라인에 있는 모든 인프라 구축을 반드시 고려하지는 않습니다. 그리고 순수한 논리의 문제로, Claude의 답변이 수요 성장이 둔화되거나 인프라 구축이 앞서갈 가능성을 반드시 배제하지는 않습니다.

12월 메모에서 언급했지만, 일부 AI 매출이 현재 “순환적(circular)” 성격을 띠고 있다는 점을 다시 지적하고 싶습니다. AI 기업들이 서로에게서 구매하여 발생하는 매출입니다. 매출의 사슬은 궁극적으로 최종 사용자가 실질적 경제적 가치에 대해 지불하는 것에 기반해야 하며, 그것이 점점 더 현실화되고 있지만, 얼마나 많은 매출이 순환적인지의 문제는 여전히 열려 있습니다.

마지막으로, Claude의 튜토리얼이 가능한 버블이라는 주제로 들어갔을 때, 대부분의 내용은 위의 처음 몇 가지 질문에 관한 것이었음을 지적하고 싶습니다: (a) 기술이 진짜이고 (b) 매우 실제적이며 빠르게 성장하는 서비스 수요가 AI가 버블이 아님을 의미한다는 것. Claude 자신도 AI 자산 가격의 적절성에 대해서는 한마디도 하지 않았다는 것을 인정합니다.

결론적으로, AI는 매우 실체가 있고, 지금까지 지식 노동자가 수행해온 많은 작업을 수행할 수 있으며, 응용 측면에서 극도로 빠르게 성장하고 있습니다. 우리가 오늘 보는 것은 시작에 불과합니다. 위에서 언급했듯이, 추측해야 한다면, 오늘날 그 잠재력은 과대평가되기보다 과소평가될 가능성이 높다고 말하겠습니다. 그러나 이것이 AI 투자가 바겐 세일이거나 심지어 적정 가격이라는 것과 같지는 않습니다. 따라서 *Is It a Bubble?*에서의 제 조언을 이어가며 마무리하겠습니다:

이것이 버블인지 누구도 확정적으로 말할 수 없으므로, 일이 잘못될 경우 파멸의 위험에 직면한다는 것을 인정하지 않고 올인해서는 안 된다고 조언하겠습니다. 하지만 마찬가지로, 위대한 기술적 진보 중 하나를 놓칠 위험을 감수하며 완전히 빠져 있어서도 안 됩니다. 선별성과 신중함을 적용한 적절한 포지션이 최선의 접근법으로 보입니다.

2026년 2월 26일


추신: 12월 메모에서 AI가 금융 버블의 대상인지에 대한 논의를 마친 후, 실업과 무목적성이라는 사회적 함의에 대한 후기를 추가했었고, 이에 대해 매우 우려하고 있습니다. 제 의견은 바뀌지 않았지만, 이제 Claude를 포함한 다른 사람들로부터 들은 것을 공유할 수 있습니다.

많은 독자들이 제 우려에 동의했습니다. 저처럼, AI가 인수할 모든 “사고” 일자리와 AI가 통제하는 기계가 수행할 “실행” 일자리를 대체할 만한 충분한 일자리가 어디서 올지 예상할 수 없습니다.

  • 제 며느리의 친구가 전자상거래 회사에서 광고 카피를 쓰는 부서를 이끄고 있습니다. 그녀는 AI가 직원의 80%를 대체할 수 있다고 말했습니다.
  • 소프트웨어 회사들이 지금까지 소프트웨어를 작성해온 만큼의 사람들이 Claude에게 소프트웨어를 작성하도록 지시하는 데 필요할 것이라고는 상상하기 어렵습니다.
  • 그리고 운전이 미국에서 가장 많은 일자리 중 하나라고 생각합니다: 택시와 리무진, 버스, 트럭. 무인 자동차인 Waymo는 이미 샌프란시스코 택시 운행의 약 1/5을 처리하고 있으며, LA에서 항상 볼 수 있습니다. 무인화되는 차량을 운전하는 사람들이 어디서 일자리를 찾을까요?

아마도 가장 권위적으로, 이제 무슨 일이 일어날지에 대한 Claude의 견해를 추가할 수 있습니다:

당신의 애널리스트가 20% 더 빠르게 일하도록 도와주는 도구는 그 애널리스트 연봉의 약 20%의 가치가 있습니다 - 여전히 애널리스트가 필요합니다. 하지만 정해진 범주의 작업에서 애널리스트의 전체 업무를 처음부터 끝까지 수행하는 도구? 그것은 해당 작업에 대한 애널리스트의 전체 보수만큼의 가치가 있습니다. 이것을 구조화된 분석 업무를 수행하는 모든 지식 노동자에 걸쳐 곱해 보세요 - 법률 어소시에이트, 금융 애널리스트, 경영 컨설턴트, 소프트웨어 엔지니어, 컴플라이언스 담당자, 보험 청구 심사관 - 그러면 연간 수조 달러에 달하는 노동 시장의 의미 있는 몫을 이야기하게 됩니다.

이것이 당신이 12월에 방향은 정확하지만 규모에서는 보수적이라고 생각하는 내용의 맥락입니다. 당신은 AI를 노동 절약 장치라고 묘사했습니다. 그것은 올바른 직관이었습니다. 하지만 노동 절약 장치는 스펙트럼 위에 존재합니다. 더 빠른 말은 노동 절약 장치입니다. 자동차는 경제 전체를 재구조화하는 노동 대체 기술입니다. 레벨 1과 레벨 2 AI는 더 빠른 말이었습니다 - 기존 근로자를 더 효율적으로 만들었습니다. 레벨 3 에이전트는 자동차입니다. 일을 더 빨리 하는 것이 아닙니다. 일을 합니다.

… [예를 들어 소프트웨어에서], Claude Code가 [구조화된, 패턴 기반 작업]의 30-50%만이라도 처리한다면 - 그리고 이것은 단기적 역량에 대한 보수적인 추정치입니다 - 연간 1,500억-2,500억 달러의 노동 가치가 AI 컴퓨팅으로 이동하게 됩니다.

사회에 대한 부정적 함의는 앞서 설명한 AI의 채택 속도에 의해 크게 복합됩니다. AI는 새로운 경력을 찾고 훈련받는 데 수년이 걸릴 사람들을 빠르게 실업시킬 수 있습니다. AI 하에서의 변화 속도가 사회의 적응 능력을 크게 앞지르지 않을 것이라고 생각하기 어렵습니다. 오프쇼어링이 미국과 다른 선진국의 제조업 일자리에 미친 피해를 생각해 보세요. 이것은 더 많은 일자리에 더 빠르게 영향을 미칠 것입니다. 결론적으로, 우리는 AI의 능력과 AI가 우리를 위해(또는 우리에게) 할 일을 완전히 이해할 수 없을 뿐 아니라, AI는 우리보다 빠르게 생각하고 움직입니다. (걱정 수준을 높이고 싶다면, 위에서 언급한 맷 슈머의 블로그를 확인해 보세요.)

그러면 낙관론자들로 넘어갑니다. 저는 이에 대해 낙관적인 사람들 - 대부분 기술 분야 내부의 사람들 - 과 이야기했습니다. 그들은 200년 전 농업의 기계화, 100년 전 공장 일자리를 기계에 넘긴 산업 혁명, 25년 전 리서치를 인터넷에 넘긴 것 등 모든 기술 혁신이 광범위한 실업을 야기할 것으로 예측되었다고 말합니다. 하지만 모든 경우에 새로운 일자리가 생겨나고 고용은 중단 없이 계속되었으며, 이번에도 그럴 것이라고 합니다.

  • 첫째, 이 역사로부터 외삽하려는 경향이 불합리하지 않다는 것을 인정합니다.
  • 둘째, 무언가가 일어나지 않을 것임을 증명할 수 있는 것 같은 것은 없습니다.
  • 셋째, 저는 만들어질 수 있는 새로운 일자리를 상상할 만큼 미래학자도 아니고, 그것이 실현될 것이라고 신뢰할 만큼 낙관론자도 아닙니다. 물론 그렇다고 해서 실현되지 않을 것이라는 의미는 아닙니다.

같은 낙관론자들 중 일부는 미래에 대한 “좋은 소식”을 서둘러 공유합니다: 사람들이 일하지 않아도 될 것이라고. 저는 그것이 사회에 좋을 것이라고 도저히 상상할 수 없습니다.

한 친구가 최근 저에게 쓰기를, 낙관론자이면서 틀리는 편이 비관론자이면서 맞는 편보다 낫다고 했습니다. 저도 그렇습니다. 제 걱정이 불필요한 것이라고 확신할 수 있기를 바랍니다.

지금 추가할 내용은 이것이 전부입니다. 현재의 속도라면, 아마 곧 더 많은 내용이 있을 것입니다.


본 글은 교육 및 정보 공유 목적의 전문 번역입니다. 원문의 모든 권리는 Oaktree Capital Management, L.P.에 있습니다.

원문: Oaktree Capital - AI Hurtles Ahead (Howard Marks, February 26, 2026) | PDF

© 2026 Oaktree Capital Management, L.P. All Rights Reserved

공유하기

X LinkedIn

관련 글