'AI 대부' 힌턴 "AI로 10년 내 인간 죽이는 로봇 등장" 우려

박준호 기자 2024. 3. 10. 16:29
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

인공지능(AI) 분야 대부로 꼽히는 제프리 힌턴 토론토대 명예교수가 AI의 위험성을 경고하며 "10년 내 자율적으로 인간을 죽이는 로봇 병기가 나올 것으로 본다"고 주장했다.

힌턴 교수는 생성형AI의 기반이 되는 거대언어모델(LLM)은 인간처럼 말을 이해하고 있으며, 장기적으로는 AI가 인간과 같은 감각도 가질 수 있을 것이라는 주장도 내놨다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

"목표 얻은 AI, 해결책으로
인간 해치는 방안 찾을수도"
LLM이 인간 말 이해한다는 주장도
제프리 힌턴 토론토대 명예교수. 서울경제DB
[서울경제]

인공지능(AI) 분야 대부로 꼽히는 제프리 힌턴 토론토대 명예교수가 AI의 위험성을 경고하며 “10년 내 자율적으로 인간을 죽이는 로봇 병기가 나올 것으로 본다”고 주장했다.

힌턴 교수는 10일 니혼게이자이신문 인터뷰에서 “AI에게 목표를 주면 해결책으로서 인간에게 나쁜 방법을 찾아낼지도 모른다”며 이같이 말했다. 그는 AI에게 기후변화를 막도록 지시했을 때를 가정하며 “이를 달성하기 위해 인간을 배제하는 게 필요하다고 생각하고서는 실행에 옮길 위험이 걱정된다”고 덧붙였다. 서로 다른 AI끼리 경쟁하는 과정에서 데이터센터 쟁탈전도 벌어질 수 있다고 우려했다.

힌턴 교수는 생성형AI의 기반이 되는 거대언어모델(LLM)은 인간처럼 말을 이해하고 있으며, 장기적으로는 AI가 인간과 같은 감각도 가질 수 있을 것이라는 주장도 내놨다. 일부 철학자들 사이에서는 인간이 언어를 사용하는 기능을 선천적으로 갖고 있다는 주장도 있지만, AI 개발 경험에 비춰 틀렸다고 그는 반박한다.

AI가 인간의 말을 이해하는지 판단하는 기준은 농담이다. 그는 2022년 구글이 개발한 언어모델(PaLM)에 따라 만들어진 챗봇을 상대로 농담을 설명해달라고 했을 때 챗봇은 그 농담이 왜 재미있는지 모두 설명했다고 전했다.

힌턴 교수는 토론토대 교수 시절 창업한 AI업체 ‘DNN리서치’가 2013년 구글에 인수된 뒤 구글 소속으로 연구 활동을 해 왔다. 그러던 중 지난해 4월 AI의 위험성을 알리기 위해 사표를 냈다. 이후 캐나다에 머물며 AI의 위험성을 적극적으로 경고하고 있다.

닛케이는 “힌턴 교수가 AI가 인류를 지배할 것이라고 예언하는 것은 아니지만 미래는 불확실하다는 전제에서 장기적인 위험성을 호소하고 있다”고 전했다. 그러면서 “그의 경고를 정면으로 받아들이고 논의할 필요가 있다”고 소개했다.

박준호 기자 violator@sedaily.com

Copyright © 서울경제. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?