[지평선] 판도라 상자를 여는 힘

정진황 2023. 11. 23. 17:00
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

편집자주<한국일보> 논설위원들이 쓰는 칼럼 '지평선'은 미처 생각지 못했던 문제의식을 던지며 뉴스의 의미를 새롭게 해석하는 코너입니다.

"우리가 사람보다 더 똑똑한 컴퓨터, 데이터센터를 갖게 되는 걸 전혀 믿지 않는 것 같습니다. 그런 AI가 뭘 할까요. 나는 모르겠습니다." 오픈AI 이사회 멤버인 일리야 수츠케버가 이달 초 팟캐스터를 통해 한 말이다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

편집자주
<한국일보> 논설위원들이 쓰는 칼럼 '지평선'은 미처 생각지 못했던 문제의식을 던지며 뉴스의 의미를 새롭게 해석하는 코너입니다.
경질 5일 만에 복귀한 오픈AI의 샘 올트먼. AFP=연합뉴스

“우리가 사람보다 더 똑똑한 컴퓨터, 데이터센터를 갖게 되는 걸 전혀 믿지 않는 것 같습니다. 그런 AI가 뭘 할까요. 나는 모르겠습니다.” 오픈AI 이사회 멤버인 일리야 수츠케버가 이달 초 팟캐스터를 통해 한 말이다. 의미심장한 자문자답 2주 뒤 이사회는 수츠케버 주도로 CEO인 샘 올트먼을 해고했다. 영리 자회사를 지배하는 비영리단체라는 특이 구조의 오픈AI에서 쿠데타와 역쿠데타 드라마는 올트먼 복귀와 이사회 물갈이로 5일 만에 끝났다. 빠른 성장과 안전의 대립구도가 사태 원인으로 지목된다. AI디스토피아를 우려한 수츠케버는 오픈AI 공동 창립자다.

□올트먼 축출 직후 오픈AI가 "인류를 해치거나 권력을 과도하게 집중시키는 AGI 활성화를 피하고, 안전하게 만드는 데 필요한 연구를 수행해야 한다"고 블로그에 올렸을 때 내부 문제가 뭐였는지 가늠하게 한다. 강 인공지능, 범용 인공지능으로 해석하는 AGI는 스스로 사고하고 해결할 수 있는 수준을 뜻한다. 오픈AI가 챗GPT-4 출시에 이어 개발 중인 차세대 모델인 챗GPT-5가 AGI일 것이란 관측이 제기돼 왔다. 인류를 위협할 수준에 도달하는 게 아니냐는 이사회 우려가 컸다.

□맨해튼 프로젝트 책임자인 로버트 오펜하이머가 고뇌한 그 지점이다. 나치 독일과의 경쟁에 과학자들을 독려했던 그조차 최초의 핵실험 현장에서 "나는 이제 죽음이요, 세상의 파괴자가 되었다"는 힌두교 경전을 떠올렸다. '세상이 다르게 나아가게 될 것'이란 그의 생각은 원자력의 평화적 이용에 대한 가능성보다 인류 파괴의 공포였다. 유전자 조작만큼 희망과 공포, 윤리문제가 혼재한 분야도 없다. 조지 W 부시 대통령 시절 8년간 금지한 미국 정부의 배아줄기세포 연구 지원은 버락 오바마 시절 재개됐다. 과학을 되돌려 놓는다는 명분이지만 경쟁에서 뒤처지게 된 두려움이 컸다.

□올트먼을 축출한 이사회 멤버들이 인류 멸망을 기도하는 고도의 인공지능 스카이넷(영화 터미네이터)을 떠올렸는지 궁금하다. 반면 올트먼은 이사회 우려를 이해하면서도 맹렬히 추격하는 구글 등 거대 경쟁자보다 앞서나가야 한다는 생각이 강했다. 고대 그리스 신화에서 판도라는 호기심을 이기지 못해 열지 말라는 상자에 손을 댔다. 과학기술혁명이 열어젖히는 판도라 상자는 지적 호기심 이상으로 경쟁이 작용하고 있는 셈이다. 공포가 압도하더라도 판도라 상자에 남은 희망도 잊어서는 안 되겠다.

정진황 논설위원 jhchung@hankookilbo.com

Copyright © 한국일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?