[오병상의 라이프톡] AI 대부의 고백 ‘AI가 두렵다’

오병상 2023. 5. 5. 00:36
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

구글 사옥앞에 선 제프리 힌튼. 'AI의 대부'라 불리는 그가 AI의 위험성을 경고하기위해 구글을 자진사퇴했다. 구글은 2012년 그가 개발한 '인공신경망' 기술을 사들였고, 이후 힌튼은 구글에서 일해왔다. 연합뉴스


챗GPT로 대표되는 생성형 AI 기술을 개발한 과학자가 ‘AI가 두렵다’고 고백했다. ‘AI 대부’로 불리는 제프리 힌튼(75)이 1일자 뉴욕타임즈와 인터뷰했다.

캐나다 토론토대학 교수였던 힌튼은 2012년 제자와 함께 생성형 AI의 출발점이 된 ‘인공 신경망(Neural Network)’기술을 개발했다. 컴퓨터가 인간처럼 분석ㆍ학습ㆍ판단ㆍ대응하게 됐다. 구글이 힌튼을 스카웃했다. 힌튼은 윤리적 문제를 고민하며 연구에 신중을 기했다. 2018년 컴퓨터업계 노벨상인 ‘튜링상’을 받았다.
그런데 오픈AI에 스카웃된 제자가 2022년 11월 챗GPT를 세상에 내놓았다. 구글 경쟁사인 마이크로소프트가 챗GPT기능을 검색엔진(Bing)에 장착했다. 깜작 놀란 구글이 AI개발 경쟁에 뛰어들었다.
힌튼은 구글을 퇴사했다. AI의 위험성을 세상에 알리기위해. ‘빅테크의 개발경쟁이 이어질 경우 AI가 인간통제 범위를 벗어날 수 있다’는 우려다. 이미 챗GPT는 그 가능성을 보여주었다. 가짜정보를 양산하거나 킬러로봇으로 인간을 공격할 수도 있다. 인간에 의한 악용 가능성도 문제지만, AI 스스로 프로그래밍하기에 어디로 튈 지 모른다는 점이 더 섬뜩하다.
힌튼이 제시한 최선의 해법은 ‘전세계 IT전문가들의 기술통제 협력’이다. ‘통제가능한 범위내에서만 개발하자’는 호소다. 힌튼의 비관론에 대한 반론도 많기에 ‘자발적 기술통제’ 실현가능성은 낮다. 그의 호소가 핵폭탄을 개발한 오펜하이머의 뒤늦은 후회처럼 공허하지 않길 빈다.

오병상 중앙일보 칼럼니스트

Copyright © 중앙일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?