[AI 기획] AGI 도달했다는 오픈AI… 대비 안된 초지능 현실로?

유진아 2024. 12. 10. 06:31
음성재생 설정 이동 통신망에서 음성 재생 시 데이터 요금이 발생할 수 있습니다. 글자 수 10,000자 초과 시 일부만 음성으로 제공합니다.
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

모델 'o1' 통해 AGI 달성 주장
통제 불능 우려도 덩달아 올라
윤리적 책임 부족 지적 목소리도
오픈AI 제공

오픈AI가 최근 추론 모델 'o1'을 통해 범용 인공지능(AGI)을 달성했다고 주장하며 논란이 일고 있다. 만약 오픈AI의 주장이 사실이라면, 인공지능(AI)이 스스로 학습하고 발전해 인류의 지능 수준을 뛰어넘어서는 '초지능 AI(ASI)'의 출현이 시간문제일 가능성이 크기 때문이다. 이는 기술 발전 속도가 인간의 통제를 벗어나는 상황이 현실화될 수 있음을 시사한다. 이에 AI 안전성에 대한 규제가 마련되지 않은 상황에서, 오픈AI가 윤리적 책임을 배제한 채 수익성과 급성장만을 우선시하고 있다는 지적이 나온다.

◇AGI의 등장?…AI가 인간 지능 넘어서나= 미국 IT 전문 매체 퓨처리즘(Futurism) 등 외신에 따르면, 오픈AI의 기술 스태프 바히트 카제미는 X(구 트위터)를 통해 "내 생각에 우리는 이미 AGI를 달성했고, o1을 통해 더욱 분명해졌다"는 글을 게시했다.

오픈AI 관계자가 AGI를 직접 달성했다고 언급한 것은 이번이 처음이다.

이를 두고 오픈AI 내부에서 이미 기술 수준이 인간의 지능을 넘어섰다는 평가가 나온 게 아니냐는 해석이 제기되고 있다.

학계에서는 AI를 고도화 수준에 따라 '제한적 인공지능(ANI)', '범용 인공지능(AGI)', '인공초지능(ASI)'으로 구분한다. 이 중 AGI는 오랜 기간 AI 업계가 목표로 삼아 온 단계다.

특히 ANI인 챗GPT나 제미나이와 달리, 사전 학습된 데이터와 알고리즘에 의존하지 않고도 새로운 문제를 분석하고 해결책을 제시할 수 있는 AI다. 인간 수준의 일반 지능을 갖추고 논리력과 창의적 추론 능력을 보유한 AI로 설명된다. 다만 아직 업계에서는 AGI의 등장이 오픈AI 관계자의 주장일 뿐이라는 의견이 지배적이다.

김명주 서울여대 정보보호학과 교수(AI안전연구소장)는 "AGI는 사람마다 정의가 다르다"면서 "오픈AI가 자신들이 세운 기준에 따라 AGI를 달성했다고 주장하지만 이는 최근 출시한 o1에 대한 마케팅적 전략의 일환일 가능성이 있다"고 말했다.

김 교수는 이어 "만약 오픈AI가 주장하는 대로 AGI가 달성되었다면, 초지능까지 도달하는 것은 시간문제일 가능성이 크다. 초지능은 인간의 통제 범위를 넘어서는 심각한 기술적 위험을 내포하고 있다"고 밝혔다.

카제미 또한 AGI 정의의 혼란을 인정하며 "우리는 아직 모든 작업에서 인간을 능가하지는 못했지만, 대부분의 작업에서 대부분의 인간보다 우수한 성능을 보이고 있다. 다만 AI는 단순히 레시피를 따라가는 것이라는 주장도 있지만, 과학적 방법도 결국 관찰, 가설, 검증이라는 레시피의 연속"이라고 강조했다.

◇초지능까지는 시간 문제?…"인간 통제 벗어날 수 있어"= 만약 오픈AI의 주장이 사실이라면, 초지능으로의 발전은 단지 시간문제라는 분석이 제기된다. 초지능은 독립적으로 학습하고 스스로 발전할 수 있는 능력을 지닌 AI로, 기존 AI와 달리 인간의 통제를 벗어날 가능성이 크기 때문에 단순한 기술적 혁신에 그치지 않는다.

특히 초지능이 제어 메커니즘 없이 발전할 경우, 기술이 인간의 통제를 벗어나 심각한 위험을 초래할 가능성이 크다. 초지능이 자율적으로 학습하며 목표를 설정하는 과정에서 인간이 의도하지 않은 방향으로 작동하거나, 물리적 기계를 제어해 군사 무기, 교통 시스템, 전력망 등 핵심 인프라를 위협할 가능성이 있다. 아울러 사회적 불평등 심화, 기존 산업 구조 붕괴, 노동시장 대체, 대규모 정보 조작 등 다양한 부작용도 우려된다.

실제로 다수의 노벨상 수상 과학자들은 초지능이 가져올 위험성을 경고하며, 이를 제어하기 위한 규제와 기술적 메커니즘의 필요성을 강조하고 있다.

올해 노벨물리학상을 수상한 제프리 힌튼 캐나다 토론토대 교수는 초지능의 개발 속도에 맞춰 통제 방안을 확보해야 한다고 목소리를 높였다.

힌튼 교수는 "최근 AI 개발 속도를 고려할 때 나는 5~20년 안에, 허사비스는 10년 안에 초지능이 등장할 것이라고 생각한다" 며 "AI를 어떻게 통제할 것인지 진지하게 고려할 때가 됐다. AI 안전성을 보다 일찍 고민했다면 좋았을 것"이라고 우려했다.

노벨화학상 수상자인 데미스 허사비스 구글 딥마인드 최고경영자(CEO)도 "AI는 인류가 개발한 가장 강력한 기술 중 하나인 만큼, 그 위험성을 매우 심각하게 다룰 필요가 있다"고 경고했다.

◇수익·급성장 급한 오픈AI?…"촘촘한 규제 만들어야"= 이에 오픈AI의 행보와 관련해, AI 안전성에 대한 규제가 마련되지 않은 상황에서 윤리적 책임이 부족하다는 지적이 나오고 있다.

김 교수는 "기술은 계속 발전하기 때문에 장기적으로 보면 AGI의 출현은 불가피하다"면서 "AI가 사람들의 통제를 벗어나기 전에 충분히 제어할 수 있어야 한다. 만약 오픈AI가 실제로 AGI 기술을 선보였다면 AI의 자율적인 통제 역량을 보여주는 검증 과정(VC)도 같이 발표했어야 한다"고 말했다. 이어 "AGI를 공개하기 전에, 각 기업은 자신들이 만든 AI를 어떻게 통제할 수 있는지를 명확히 제시하고 이에 따라 공공기관의 인증을 받아야 한다. 하지만 오픈AI는 이번 발표에서 그러한 기준을 충족하지 않았다. 이런 검증이 없는 상태에서 AGI를 발표한 것은 우리가 우려하는 AGI가 아니거나, 무책임한 결정 중 하나일 가능성이 높다"고 목소리를 높였다.

최병호 고려대 인공지능연구소 교수 또한 "오픈AI는 수익성과 급성장만을 추구하며 AI 안전과 윤리를 외면하고 있다. 슈퍼 얼라이먼트 팀을 해체한 점만 보더라도 오픈AI는 급성장을 우선시하면서 AI 통제와 규제에는 거의 자원을 투자하지 않고 있다"며 "초지능은 인류에게 심각한 영향을 미칠 수 있는 위험한 기술이지만, 오픈AI는 성능 향상과 수익만을 추구할 뿐 이 기술이 인류에 미칠 영향을 고려하지 않고 있는 것으로 보인다"고 우려했다.

이어 "초지능의 위험성을 줄이기 위해 초기부터 촘촘한 규제와 통제 메커니즘을 마련해야 한다"며 "AI 기술이 인류에게 도움이 되기 위해서는 글로벌 차원의 협력과 책임 있는 개발이 필수적"이라고 강조했다.

유진아기자 gnyu4@dt.co.kr

Copyright © 디지털타임스. 무단전재 및 재배포 금지.