세계 인공지능(AI) 업계 대부분이 ‘범용 인공지능(AGI·Artificial General Intelligence)’에 대해 “인류의 미래를 바꿀 것”이라며 열광하고 있다. 하지만 정작 AGI가 무엇인지에 대해선 합의조차 이뤄지지 않고 있다. 영국 경제지 파이낸셜타임스(FT)는 “AGI가 과학을 가장한 투자유치 마케팅의 전략일 뿐이라는 비판도 나오고 있다”고 최근 관련 논의를 게재했다.
현재 오픈AI, 딥마인드, 메타, 앤트로픽 등 글로벌 AI 선두 그룹들은 각기 다른 AGI의 정의와 목표를 내놓아 불확실성을 키우고 있다. AGI에 대해 딥마인드는 “인지 작업 대부분을 할 수 있는 숙련된 성인(skillful adult)의 수준”으로 규정한다. 오픈AI는 “경제적 가치가 있는 업무에서 인간보다 성과 내는 자율 시스템”이라고 정의한다. 오픈AI와 딥마인드는 AGI가 경제·과학 혁신을 이끌 것이라고 주장한다. 반면 메타의 AI 수장 얀 르쿤은 “인간의 지능도 특화된 영역에 불과하다”며 AGI 개념 자체를 반박한다.
정의조차 이처럼 제각각인 가운데, AGI 도달 시점 역시 각 기업의 최고경영자(CEO)마다 다르게 전망한다. 일론 머스크는 올해, 앤트로픽의 다리오 아모데이는 2026년, 오픈 AI의 샘 올트먼은 트럼프 재임 중이라고 주장하는 등 합의점이 보이지 않는다.
일부 비판자는 AGI가 “자본투자 유치를 위한 홍보 마케팅 버블이며, 실제로는 허상에 불과하다”고 반박한다. “수억 달러(수천 조원)의 자본이 AGI 도약에 따라 움직이지만, 과학적 기준도 없고, 환경·윤리 문제도 방치되고 있다”는 것이다.
FT에 따르면, 실리콘밸리의 커다란 차기 돌파구로 꼽히는 AGI에 대해 “과학적 목표인가, 아니면 마케팅 전문유행어(buzzword)인가”를 둘러싼 논란이 전개되고 있다. 2010년 딥마인드를 설립할 때 데미스 하사비스, 무스타파 술레이만, 셰인 레그는 사업계획서 앞면에 단 한 문장을 적었다고 한다. “세계 최초의 AGI를 만들자”. 그들은 이를 여전히 믿고 있다.
딥마인드 설립으로부터 15년이 흐른 오늘, 주요 기술 CEO들은 AGI를 차세대 돌파구로 확신하며 그 잠재력에 열광하고 있다고 FT는 밝혔다. 전통 AI는 ‘좁은(narrow)’ 형태로, 인간이 방대한 데이터를 수집해 모델을 가르치면 스프레드시트 분석이나 체스 같은 특정 작업을 매우 잘할 수 있다. 그러나 AGI는 이보다 더 진보할 가능성을 지닌다.
AGI에 대해 오픈AI의 올트먼은 “‘풍요 증가, 글로벌 경제의 초가속화, 과학적 발견’으로 인류를 고양시킬 수 있다”고 썼다. 딥마인드와 합병한 하사비스는 “질병 치료, 수명 연장, 새로운 에너지원 발견 등 ‘글로벌 문제 해결’을 도울 수 있다”고 말했다. 앤트로픽의 아모데이는 AGI가 “노벨상 수상자보다 더 똑똑할 것”이라며 이를 “데이터센터에 있는 천재들의 나라”라고 표현했다. 반면, 메타의 최고 AI 과학자 얀 르쿤은 인간 지능이 실제로 ‘범용적’이지 않다는 이유로 AGI라는 용어를 선호하지 않는 대신, ‘초지능(ASI·Artificial SuperIntelligence)’을 선호한다. 이렇듯 모호함에도 불구하고, 정부와 기업은 이미, 실리콘밸리의 용어를 빌리자면 ‘AGI의 느낌(feeling the AGI)’을 받아 투자하고 있다고 FT는 꼬집었다.
오픈AI와 앤트로픽은 수십억 달러(수조 원)를 유치했고, 백악관은 AI 규제를 유예하려는 움직임을 보이고 있다. 오픈AI도 미·중동 데이터센터 투자에서 트럼프 전 대통령의 지원을 받고 있다. 실제로 2025년 1분기 기업들의 실적 발표에서 AGI 언급은 전년 대비 53% 증가했다.
AGI가 정확히 무엇인지 정의하는 일은, 어떤 파급력이 있는 기술인지, 우선순위로 둘 만한지 여부를 결정하는 데 필수적이다. 정책결정자와 투자자에게 AGI 실현 시기는 매우 중요하다. 유럽연합(EU)은 ‘프론티어 AI’ 개발을 방해하지 않기 위해 AI법(AI Act)을 잠정 연기할 수 있다고 했다. 영국 등도 AGI 정의와 안전 연구를 준비 중이다.
가장 넓은 정의라도, AGI는 컴퓨터 처리 속도를 엄청나게 가속시킨다. 하지만 그런 모델을 만들려면 어마어마한 비용과 환경 부담이 따라온다. 또한 공정하고 공평하게 사용되도록 어떻게 보장할 것인지 역시 문제라고 FT는 지적했다.
AGI와 관련, 오픈AI의 정의는 “경제적 이익이 있는 작업에서 인간보다 성과를 내는 고도 자율 시스템”으로 규정한다. 딥마인드는 “고도화된 성인이 수행 가능한 인지 작업 대부분을 할 수 있어야 한다”고 주장한다. 현재 챗지피티(GPT), 구글의 제미나이, 메타의 라마 등은 딥마인드의 분류 기준에 따르면 ‘1단계 신흥 AGI’에 해당한다. 2단계(숙련 성인 중간 수준)는 아직 도달하지 못했다. 이어, 3~4단계(상위 90~~99%)나 5단계(초지능)가 실현을 기다리고 있다.
AGI 도달 경로에 대해 기술자들도 의견이 갈린다. 오픈AI와 앤트로픽은 대형 언어 모델(LLM)에 더 많은 데이터와 연산 자원을 투입하면 AGI가 나온다고 본다. 오픈AI가 최근 공개한 챗GPT 오쓰리(o3)의 추론( reasoning) 모델은 ‘코딩, 수학, 이미지 인식’ 등 더 복잡한 작업을 수행할 수 있다고 회사측은 설명했다.
FT에 따르면, 일부 AGI 지지자들은 이 기술을 즉시 AGI로 선언했다. 경제학자이자 인기 AI 전문가인 타일러 코언은 모델이 공개된 후 “내가 보면 (이것이 AGI라는 것을) 알 수 있다”고 선언했다. 추론 모델을 넘어 AGI로 나아가는 다음 단계는 독립적이고 신뢰할 수 있게 행동할 수 있는 AI 에이전트를 만드는 것. 그 다음 AI 도구는 혁신을 창출할 수 있으며, 결국 인간이 협력해 일하는 대규모 구조를 모방하는 조직처럼 행동할 수 있다고 이 회사는 설명한다.
AGI의 또 다른 핵심 특징은 자기 개선 능력. “단순히 당신의 지식의 최전선에서 작동하는 것이 아니라, 스스로를 개선하는 데 매우 능숙하다. 자신의 코드를 작성할 수 있으며, 자신을 더 나은 버전으로 만드는 다음 버전을 생성할 수 있다”고 회사는 덧붙였다.
그러나 비판자들은 언어 모델이 수많은 약점을 가지고 있다고 지적했다. 이들은 여전히 매우 부정확하며, 허구를 만들어내고, 실제로 ‘생각’하는 것이 아니라 단순히 문장의 다음 가능한 단어를 예측할 뿐이라는 것.
애플 연구진들의 논쟁의 여지가 많은 연구 결과에 따르면, 새로운 세대의 추론 모델은 단순히 생각하는 듯한 환상을 창조할 뿐이며, 복잡한 과제에 직면할 때 ‘완전한 정확도 붕괴’를 겪는다. 일부 기술자들은 언어만으로는 지능의 모든 차원을 포착할 수 없다고 주장하며, 더 많은 요소를 포함하는 더 넓은 모델을 추구하고 있다.
메타의 르쿤은 언어 대신 비디오와 로봇 데이터를 학습해 우리 세계의 물리학을 포괄하려는 이른바 ‘월드 모델’을 개발 중이다. 그는 우수한 기계 지능을 창출하려면 세계에 대한 더 포괄적인 이해가 필요하다고 주장한다. 데이터가 고갈되고 있기 때문에 출판사와 라이선스 계약이 필요해, 딥마인드는 합성데이터, 메모리 개선, 로봇 학습 등을 AGI의 돌파구로 거론하고 있다.
하지만 비판자들은 AGI를 향한 목표 자체가 과학 정책과 자원의 쏠림, 권력 집중, 창작권 침해, 환경 피해 등을 동반하며, 사기성 호언일 가능성이 있다고 문제제기한다. “지능이라는 개념 자체가 불명확하다. AGI를 목표로 삼는 것은 기술 전진이라는 이름 아래 포장된 ‘무해해 보이는 허구’일 수 있다”는 것.
AGI 담론은 투자자들의 자본 유인을 증폭시키고 있다. 오픈AI는 지난 3월 3000억 달러(약 414조 7200억 원)의 기업가치로 400억 달러(약 55조 3040억 원)를 조달했다. 비판자들은 “누군가가 AGI가 임박했다고 말하고, 그 말을 수년간 반복해 왔으며, 그 말에 금전적 동기가 있다면, 지금까지 왜 그들이 틀렸는지 의심해야 한다”고 경고한다. AGI 논의는 막대한 환경 발자국, 알고리즘 편향과 차별, 그리고 인류 존속에 대한 위협까지 다뤄야 한다는 것이다.
AGI를 통해 투자자들은 단순히 수억 달러(수천억원)의 수익을 기대하는 것이 아니다. 국내총생산(GDP)을 창출하는 방식을 혁신할 가능성에 투자한다는 것. 이는 수조 달러(수천 조억원) 규모의 결과를 창출할 수 있다.
역사는 물체에 생명을 불어넣고 초인적인 존재로 판매하려는 시도들로 가득 차 있다. 가장 유명한 사례는 아마도 1770년 오스트리아의 마리아 테레지아 여왕을 위해 제작된 마법 같은 체스 기계 ‘기계적 터크’의 이야기일 것이다. 이 기계는 나폴레옹 보나파르트와 벤자민 프랭클린과 같은 상대와 대결해 승리했다. 하지만 실제로는 기계 내부에 사람이 숨어 조작할 수 있는 공간이 있었다.
오늘날 AI는 유사한 환상을 제공한다. AI 챗봇을 친구, 동반자, 심지어 치료 목적으로 찾는 사람들이 점점 늘고 있다. 하지만 이 성능은 AI 챗봇이 실제보다 더 지능적이거나 의식적으로 보이도록 만들기 위해, 데이터 세트 라벨링부터 챗봇 답변 순위 매기기까지 엄청난 양의 인간 노동력이 투입된다. 이 때문에 설득력 있게 느껴지는 것이다. 일부 사람들은 인공 일반 지능이 우리가 추구해야 할 목표인지조차 의심한다.
AGI 추구 과정은 환경적 영향도 크다. 점점 더 강력한 AI 모델은 대규모 데이터 센터에서 훈련하고 실행하기 위해 수천 톤의 물과 에너지가 필요하다. 이 기술은 석유와 가스 같은 고도로 오염되는 산업 분야의 생산을 촉진한다.
AGI는 윤리적 문제와 잠재적 사회적 해악에 대한 질문을 제기한다. 기술 개발과 경제적 이익을 추구하는 과정에서, 정부는 알고리즘 편향과 차별과 같은 AI 기술로부터 기본적인 보호를 제공하는 규제를 소홀히 하고 있다는 비판이 있다.
제프리 힌턴 등 현대 AI의 창시자로 여겨지는 연구자들을 포함한 영향력 있는 소수 그룹은 더 극단적인 결과를 경고한다. 그들은 통제되지 않을 경우 AGI가 인류 멸종으로 이어질 수 있다고 주장한다.
그러나 학계 연구자들과 구글 딥마인드, 안트로픽, 마이크로소프트, 허깅페이스와 같은 대형 AI 연구소 소속 연구자들은 AI 기술을 현실 세계에서 측정하고 평가하는 의미 있는 방법을 만드는 것이 해당 분야의 ‘일반 지능’에 대한 ‘거친 주장에 대한 집착’으로 인해 방해받고 있다고 목소리를 높인다.
권세인 기자
[ⓒ데이터저널리즘의 중심 데이터뉴스 - 무단전재 & 재배포 금지]