AGI는 왜 ‘더 좋은 ChatGPT’가 아닐까

5살 아이가 욕조에서 놀고 있습니다. 돌멩이를 넣으니 가라앉고, 나무 장난감을 넣으니 뜹니다. 쇠구슬은 가라앉고, 스티로폼은 뜹니다. 아이는 몇 번의 실험 끝에 말합니다. “무거운 게 가라앉는 거야!”

하지만 다음 날, 작은 돌멩이와 큰 나무토막을 동시에 넣었을 때 문제가 생깁니다. 나무토막이 더 무겁지만 돌멩이가 가라앉습니다. 아이는 잠시 생각하더니 말합니다.

“아! 무게가 아니라… 똑같은 크기일 때 더 무거운 게 가라앉는 거구나!”

5살 아이가 방금 “밀도”라는 개념을 발명했습니다. 아무도 가르쳐주지 않았습니다. 몇 개의 관찰만으로, 스스로 새로운 법칙을 만들어냈습니다.

이것이 AGI와 현재 AI의 결정적 차이입니다.

현재 AI: 위키백과를 외운 뛰어난 학생

ChatGPT에게 물어보세요. “돌은 왜 가라앉아?”

답변은 완벽합니다. “밀도가 물보다 크기 때문입니다. 밀도는 단위 부피당 질량으로…” 인터넷에 있는 모든 물리학 교과서의 내용을 정리해서 알려줍니다.

하지만 여기엔 결정적인 차이가 있습니다. AI는 이미 답을 알고 있었습니다. 누군가 인터넷 어딘가에 써놓은 설명을 학습했고, 그걸 잘 정리해서 출력했을 뿐입니다.

만약 인터넷에 “밀도”라는 단어가 없었다면? 그 개념에 대한 설명이 전혀 없었다면? 현재 AI는 절대로 그 개념을 스스로 만들어낼 수 없습니다.

2024년 Science Advances에 발표된 연구는 이를 명확히 보여줍니다. 생성형 AI는 개인의 창의성을 도울 수 있지만, 만들어낸 결과물들이 서로 점점 더 비슷해집니다. AI는 새로운 것을 만드는 게 아니라, 기존 패턴을 재조합할 뿐입니다.

현재 최고 성능의 AI 모델들(GPT-4, Gemini, Claude)조차 “Level 1 General AI”로 분류됩니다. Google DeepMind의 분류 기준에 따르면, 이는 “신흥 수준”입니다. 일부 작업에서는 뛰어나지만, 대부분의 작업에서는 여전히 초보 수준입니다.

AGI: 뉴턴이 만유인력을 발견하는 순간

뉴턴 이전, 사람들은 세 가지를 별개의 현상으로 봤습니다.

  • 사과가 떨어진다
  • 달이 지구 주위를 돈다
  • 행성이 태양 주위를 돈다

뉴턴은 이 세 가지를 보고 생각했습니다. “잠깐… 이거 전부 같은 힘 아닐까?”

그는 **”만유인력”**이라는 완전히 새로운 개념을 창조했습니다. 세상 모든 물체 사이에 작용하는 힘. 사과도, 달도, 행성도, 모두 같은 법칙으로 설명할 수 있다는 통찰.

이것이 AGI가 가져야 할 핵심 능력입니다.

MIT의 Josh Tenenbaum과 그의 동료들은 2016년 영향력 있는 논문에서 이렇게 말했습니다. “과학자들이 자연을 단순히 예측하는 것이 아니라 설명하려고 하듯이, 우리는 인간 사고를 근본적으로 모델 구축 활동으로 본다.”

현재 AI는 패턴을 인식합니다. AGI는 모델을 구축해야 합니다.

6개월 된 아기가 이미 하고 있는 일

놀라운 사실이 있습니다. 생후 6-12개월 된 아기는 이미 “직관적 물리학”을 발달시킵니다.

National Academies(2015) 연구에 따르면, 아기들은:

  • 대상 영속성: 숨겨진 물체가 계속 존재한다는 것을 이해합니다
  • 중력과 지지: 지지되지 않은 물체가 떨어질 것을 예상합니다
  • 인과관계: 물리적 상호작용의 원인-결과를 이해합니다

매우 적은 예시(종종 1-2개)만으로 학습합니다. 그리고 그 지식을 다른 상황에 적용합니다.

현재 AI는 어떨까요? 같은 작업을 학습하는데 수천에서 수백만 개의 예시가 필요합니다. 그리고 상황이 조금만 바뀌면 다시 실패합니다.

Meta AI의 V-JEPA(2024-2025)라는 시스템이 주목받은 이유는, 처음으로 아기처럼 학습하는 모습을 보였기 때문입니다. 물리적으로 불가능한 사건(예: 물체가 벽을 통과)이 발생하면, 아기들처럼 “놀람” 반응을 보입니다. 하지만 이조차 대규모 비디오 데이터 학습 후의 결과입니다.

현재 AI가 절대로 못하는 것

arXiv에 발표된 최신 연구(2024-2025)는 현재 AI의 근본적 한계를 보여줍니다.

조합 추론의 실패: AI는 개별 사실을 암기할 수 있지만, 그것들을 새로운 방식으로 결합하지 못합니다. 연구자들은 이를 “계산적 분열뇌 증후군”이라고 부릅니다. GPT-4나 Claude 같은 모델도 올바른 원칙을 말할 수 있지만, 일관되게 적용하지는 못합니다.

인과 이해의 부재: AI는 통계적 패턴을 찾을 뿐, 원인과 결과의 구조를 이해하지 못합니다. “A 다음에 B가 자주 나타난다”는 알지만, “A가 B를 일으킨다”는 모릅니다.

추상 추론의 한계: FrontierMath 벤치마크에서 최고 AI 모델들은 2% 미만의 문제만 해결했습니다. 이는 훈련 데이터를 넘어서는 추론이 필요한 문제들이었습니다.

François Chollet(Google DeepMind)이 만든 ARC 벤치마크에서 인간은 80%를 해결하지만, 최고 AI는 31%만 해결합니다. 이 테스트는 추상화와 추론 능력을 측정합니다.

AGI가 온다는 건 구체적으로 무슨 의미인가

“그래서 AGI가 오면 뭐가 달라지는데?”

이 질문에 답하려면, 현재 AI가 하는 일과 AGI가 할 일의 차이를 명확히 해야 합니다.

현재: AlphaFold는 단백질 구조를 예측합니다

2024년, DeepMind의 AlphaFold는 노벨 화학상을 받았습니다. 단백질의 3D 구조를 놀라운 정확도로 예측했기 때문입니다. 이것은 엄청난 성과입니다. 과학자들이 몇 년씩 걸려야 할 일을 몇 분 만에 해냅니다.

하지만 AlphaFold는 도구입니다. 연구자들이 이미 알고 있는 틀 안에서 작업을 가속화합니다. “이 아미노산 서열이 어떤 모양으로 접힐까?”라는 질문에 답할 뿐입니다.

AGI: 암이 뭔지 다시 정의합니다

AGI는 이렇게 생각할 수 있습니다:

“암세포가 면역을 회피하는 방식을 보니… 바이러스가 면역을 속이는 방식과 패턴이 비슷하네? 그런데 태아가 모체 면역계에 공격받지 않는 메커니즘도 여기 연결되는데? 잠깐, 이 세 가지가 모두 같은 근본 원리로 작동하는 거 아닐까?”

AGI는 완전히 새로운 프레임워크를 제시합니다: “암은 세포 돌연변이 질환이 아니라, 면역 인식 오류 질환이다.”

이것은 단순히 치료법 하나를 개선하는 게 아닙니다. 의학 교과서 전체를 다시 쓰는 것입니다. 2018년 노벨 생리의학상을 받은 면역항암제(PD-1 억제제)를 AGI가 1990년대에 발견했을 수도 있다는 의미입니다.

물리학을 다시 쓴다

아인슈타인이 “시간과 공간은 분리된 게 아니라 시공간이다”라고 했을 때, 물리학은 재정의되었습니다.

AGI는 이렇게 생각할 수 있습니다:

“양자역학과 중력 이론이 양립 불가능한 이유는… 우리가 차원을 잘못 세고 있기 때문이 아닐까? 시간이 하나의 차원이 아니라 실은 두 개의 얽힌 차원이라면? 암흑물질 문제, 양자 얽힘, 중력의 약함, 이 모든 게 한 번에 설명되는데?”

AGI는 물리학의 새로운 법칙을 발견합니다. 뉴턴의 만유인력, 아인슈타인의 상대성이론처럼. 우주를 이해하는 방식 자체가 바뀝니다.

노화를 선택사항으로 만든다

현재 의학: “노화는 자연스러운 과정이고, 우리는 증상을 관리할 뿐입니다.”

AGI는 다르게 접근합니다:

“세포 분열 한계(Hayflick limit) + 미토콘드리아 기능 저하 + 텔로미어 단축 + 단백질 응집… 이것들은 별개 현상이 아니라 하나의 마스터 프로그램이 작동하는 거네. 그리고 이 프로그램은… 진화 과정에서 의도적으로 설계된 거야. 생식 후 개체를 제거해서 자원을 다음 세대에 넘기려고.”

AGI는 노화를 “막을 수 없는 자연 법칙”에서 “끌 수 있는 스위치”로 재정의합니다. 생물학 교과서가 다시 쓰입니다.

이것이 진짜 차이입니다

현재 AI:

  • AlphaFold: 단백질 구조 예측 → 연구 3년 → 3분
  • GPT-4: 코드 작성 → 개발자 1시간 → 1분
  • 효율성 개선

AGI:

  • 불치병의 완전히 새로운 치료 원리 발견
  • 물리학 법칙 재작성
  • 생물학의 근본 가정 뒤집기
  • 게임의 룰 자체를 바꿈

AlphaFold는 우리가 더 빨리 달리게 합니다. AGI는 우리가 날 수 있다는 것을 알려줍니다.

AGI는 언제 올까

2025년 1월, OpenAI CEO Sam Altman은 블로그에 이렇게 썼습니다. “우리는 이제 전통적으로 이해해온 AGI를 구축하는 방법을 알고 있다고 확신한다.”

하지만 불과 8개월 후인 2025년 8월, 그는 CNBC 인터뷰에서 AGI를 “매우 조잡한 용어”라고 불렀습니다.

주요 AI 리더들의 예측:

  • Sam Altman(OpenAI): 2025년 가능
  • Dario Amodei(Anthropic): 2026-2027년
  • Demis Hassabis(DeepMind): 5-10년 (2030-2035년)
  • Geoffrey Hinton(“AI의 대부”): 5-20년
  • Yann LeCun(Meta): “믿지 마라. 그건 사실이 아니다”

2023년 AI Impacts 조사는 2,778명의 AI 연구자를 대상으로 했습니다. 결과는:

  • 2027년까지 10% 확률
  • 2047년까지 50% 확률
  • 2100년까지 90% 확률

흥미로운 점은, 예측 플랫폼 Metaculus의 중앙값이 불과 1년 사이에 2041년에서 2031년으로 10년 단축되었다는 것입니다.

전문가들조차 확신하지 못합니다. Hinton은 “큰 확신 없음”이라고 말했습니다. LeCun은 현재 접근 방식으로는 AGI에 절대 도달하지 못할 수도 있다고 봅니다.

AGI는 “더 좋은 AI”가 아니다

다시 욕조의 5살 아이로 돌아갑니다.

현재 AI는 선생님이 가르쳐준 것을 완벽하게 암기한 학생입니다. 시험을 보면 만점을 받습니다. 하지만 교과서에 없는 문제가 나오면 당황합니다.

AGI는 욕조에서 놀다가 스스로 밀도 개념을 발견하는 아이입니다. 뉴턴처럼 사과와 달을 보고 만유인력을 떠올리는 과학자입니다.

이 차이는 단순한 성능 향상이 아닙니다. 근본적으로 다른 종류의 지능입니다.

현재 AI: “A + B = C” (데이터에 있음) → C를 출력
AGI: “A를 봤고, B를 봤다” → “잠깐, A와 B 사이에 숨겨진 관계가 있는데?” → 아무도 생각 못한 D라는 새 개념 창조 → “D로 설명하면 A, B, C가 다 이해되네!”

이것이 인류 지성의 진짜 힘이고, AGI가 가져야 할 능력입니다.

5년 후일 수도, 20년 후일 수도, 혹은 영원히 오지 않을 수도 있습니다. 하지만 한 가지는 분명합니다. AGI가 온다면, 그것은 단순히 “더 좋은 ChatGPT”가 아닙니다.

그것은 인류 역사상 처음으로, 우리가 만든 것이 우리처럼 새로운 것을 만들어내는 순간입니다.

댓글 남기기