챗GPT 너, 터미네이터는 꿈도 꾸지 마

유용하 2024. 1. 4. 05:02
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

지난해 과학저널 '사이언스'는 '2023년 주요 연구 성과' 중 하나로 구글 딥마인드의 날씨 예측 인공지능(AI) '그래프캐스트'(GraphCast)를 선정했다.

'네이처'는 '2024년 주목해야 할 연구'로 '인공지능(AI) 연구의 질주'를 꼽았다.

연구자들은 오픈AI의 GPT-3로 수학 계산의 정확도를 측정하고, 구글의 대규모 언어모델인 '람다'(LaMDA)가 연구팀이 제공하는 속담이나 격언의 참과 거짓을 구분해 낼 수 있는지 분석했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

인간 넘을까… ‘생성형 AI’의 미래
인류 압도 파괴적 인공지능 우려
‘터미네이터’ 같은 ‘强AI’ 거센 논쟁
과학자들 “제어 불능 마법 없을 것”
“만약의 상황 대비 윤리기준 필요”
유엔기구 국제 규제 지침 발표도
일부 과학자는 인공지능(AI)이 대부분 작업에서 인간을 능가하는 인공일반지능(AGI)을 달성할지도 모른다고 주장한다. 인공지능의 양적 증가가 갑자기 질적 변화로 바뀌는 ‘창발’의 순간이 갑자기 찾아올지 모른다는 우려다. 그렇지만 많은 전문가가 현재 인공지능의 수준은 예측 가능하다고 보고 있다. ‘터미네이터’는 강인공지능의 등장에 대한 인류의 두려움을 그대로 드러내는 영화다. ‘터미네이터 제니시스’의 한 장면. 파라마운트 픽처스 제공

지난해 과학저널 ‘사이언스’는 ‘2023년 주요 연구 성과’ 중 하나로 구글 딥마인드의 날씨 예측 인공지능(AI) ‘그래프캐스트’(GraphCast)를 선정했다. ‘네이처’는 ‘2024년 주목해야 할 연구’로 ‘인공지능(AI) 연구의 질주’를 꼽았다. 지난해 전 세계를 휩쓸었던 챗GPT의 업그레이드 버전인 GPT-5, 텍스트에서 비디오까지 다양한 유형의 파일을 처리할 수 있는 구글의 생성형 인공지능 ‘제미니’, 단백질 3D 구조의 정밀 예측이 가능한 구글 딥마인드의 ‘알파폴드’ 새 버전 등이 올해 속속 공개된다.

특히 2022년 말부터 챗GPT로 대표되는 생성형 AI의 열풍은 2016년 바둑 AI 알파고가 이세돌 9단과의 대국에서 압승했을 때보다 더 충격적으로 다가오고 있다. AI가 인간 고유의 특징이라고 할 수 있는 창의성, 의식, 일반 지능까지 갖추게 되는 것 아니냐는 우려마저 나오고 있다.

영화 ‘터미네이터’ 시리즈에는 인간을 뛰어넘는 파괴적 AI 스카이넷이 등장한다. 영화적 상상력이기는 하지만 AI의 발달을 이야기할 때 빠지지 않고 등장한다. 과연 영화에서 등장하는 강(强)인공지능이 가능할 것인가는 과학자들 사이에서도 논쟁거리다.

강AI 개념에는 알파고처럼 특정 문제가 아닌 범용 문제를 풀 수 있는 인공일반지능(AGI), 인간 지능을 넘는 초지능, 의식을 가진 지능에 대한 개념이 섞여 있으며 이들 개념이 서로를 필연적으로 함축하고 있지 않다. 그래서 생성형 AI가 여러 문제를 풀 수 있는 AGI를 구현한다고 하더라도 인간 같은 의식을 가진 강AI가 되지는 않는다는 주장에 힘이 실린다.

마블 시네마틱 유니버스에 등장하는 강인공지능을 갖춘 로봇 ‘울트론’은 인간과 같은 의식을 갖고 인간을 뛰어넘는 판단을 하는 모습을 보인다. 영화 ‘어벤져스: 에이지 오브 울트론’의 한 장면. 월트 디즈니 제공

실제로 지난해 12월 미국 뉴올리언스에서 열린 머신러닝 분야 최대 학회인 ‘신경 정보처리 시스템학회’(NeurIPS) 콘퍼런스에서도 이런 문제들이 논의됐다. 많은 사람이 챗GPT 같은 대형 언어모델의 등장에 따라 ‘인공지능 초지능이 갑자기 등장할 수 있는가’라는 질문을 던졌다.

대규모 언어모델은 방대한 텍스트와 기타 정보를 사용해 학습하면서 다음에 나올 내용을 예측하고 현실적 답변을 만들어 낸다. 언어를 번역하고, 수학 문제를 풀고, 시를 쓰거나 컴퓨터 프로그램도 짠다. 이 때문에 일부 연구자는 이런 도구가 대부분 작업에서 인간과 비슷하거나 능가하는 AGI를 달성할 것으로 예상하기도 한다.

이에 대해 많은 전문가는 AI 모델에서 양적 증가가 질적 변화로 급격하게 변화하는 ‘창발’(emergence)의 순간이나 인간의 지능을 뛰어넘어 인간의 제어가 불가능해지는 특이점(singularity)은 오지 않을 것이라고 예측했다.

연구자들은 오픈AI의 GPT-3로 수학 계산의 정확도를 측정하고, 구글의 대규모 언어모델인 ‘람다’(LaMDA)가 연구팀이 제공하는 속담이나 격언의 참과 거짓을 구분해 낼 수 있는지 분석했다. 또 사람이나 동물의 시각 체계 기능을 컴퓨터로 구현하는 컴퓨터 비전 분야에서도 특정 영상들을 보고 압축하고 새로운 이미지로 재구성하도록 실험했다. 그 결과 각종 생성형 AI에게서 인간의 창의력이나 생각을 뛰어넘는 수준의 실력이 관찰되지 못했다고 연구팀은 밝혔다.

연구를 이끈 산미 코에조 미국 스탠퍼드대 교수(컴퓨터과학)는 “아직까지는 AI에서 ‘마법’ 같은 일은 일어나지 않을 것으로 보인다”고 말했다.

AI 연구자들의 이런 자신감에도 불구하고 한편에서는 AI가 인간을 위협하는 순간은 갑자기 찾아올 수 있는 만큼 윤리적 기준을 마련해야 한다는 목소리가 높아지고 있다. 이 때문에 유엔 고위급 자문기구는 올해 중순쯤에 대형 언어모델과 AI에 대한 국제 규제 지침이 될 최종 보고서를 발표한다.

유용하 기자

Copyright © 서울신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?