‘AI 대부’ 힌턴 “인류 멸종 수준 위협…기본소득 필요”

김진영 2024. 5. 20. 15:45
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

"우리가 생물학적 지능보다 진보된 지능을 만들 수 있다는 사실은 인류가 멸종할 수준의 위협이 초래될 수 있음을 의미한다."

'AI 대부' 제프리 힌턴 토론토대 교수가 19일(현지시간) BBC와의 인터뷰에서 인공지능(AI)의 위험성을 경고하며 이같이 말했다.

힌턴 교수는 지난 몇 년간 각국 정부가 AI를 군사적으로 활용하고, 기업들이 급속한 제품 개발 경쟁에 뛰어든 점을 지적하며 "AI 개발 안전에 충분한 노력이 기울여지지 않고 있다"고 비판했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

스스로 하위 목표 설정하는 AI 진화 예고
AI 군사적 활용 규제 위한 국제 협약 필요
"AI 생산성 높이지만 부는 기득권에 종속"

“우리가 생물학적 지능보다 진보된 지능을 만들 수 있다는 사실은 인류가 멸종할 수준의 위협이 초래될 수 있음을 의미한다.”

'AI 대부' 제프리 힌턴 토론토대 교수가 19일(현지시간) BBC와의 인터뷰에서 인공지능(AI)의 위험성을 경고하며 이같이 말했다. 그는 인공지능(AI) 학습의 근간인 딥러닝 개념을 처음으로 고안해 '딥러닝의 아버지'로도 불린다.

힌턴 교수는 지난 몇 년간 각국 정부가 AI를 군사적으로 활용하고, 기업들이 급속한 제품 개발 경쟁에 뛰어든 점을 지적하며 "AI 개발 안전에 충분한 노력이 기울여지지 않고 있다"고 비판했다. 그러면서 "지금으로부터 5~20년 안에 AI가 인간 사회를 장악할 확률이 50%"라고 추측했다. 이미 일부 알고리즘과 대형언어모델(LLM)에서 AI가 이용자를 속이려 드는 증거가 나오고 있다고도 덧붙였다.

그는 "AI는 스스로 동기부여를 위해 하위 목표를 설정하는 방식으로 진화할 수 있다"며 "AI가 자율적으로 사람을 죽이는 결정을 내릴 수 있을 때를 가장 걱정하고 있다"고 밝혔다. 이어 AI의 군사적 사용을 규제하기 위해 AI용 제네바 협약이 필요하다고 역설했다. 제네바 협약은 전쟁에서의 인도적 대우에 관한 기준을 정립한 국제 협약이다.

힌턴 교수는 AI에 의한 일자리 대체에 대해서도 입을 열었다. 그는 "AI가 많은 일상 속 직업들을 대체할 가능성에 대해 매우 우려하고 있다"며 "AI가 생산성과 부를 증가시킬 것이라고만 생각하지만 그 돈은 부자들에게 돌아가 사회 전체에 나쁜 영향을 줄 것"이라고 전망했다.

그는 이어 "런던 정치계의 많은 이들로부터 이 문제에 대해 질문을 받는데, 나는 그들에게 기본소득이 매우 좋은 아이디어라고 조언한다"며 "모든 국민에게 일정한 금액의 현금 소득을 지급하는 방향의 복지 개혁이 필요하다"는 의견을 피력했다.

컴퓨터과학의 노벨상으로 불리는 '튜링상' 수상자이기도 한 힌턴 교수는 지난해 돌연 구글을 떠나면서 수십년간에 걸친 AI 연구를 후회한다고 밝혀 화제가 됐던 인물이다. 그는 올해 초 아시아경제와의 신년 인터뷰에서 "지능이 더 높은 무언가가 그보다 지능이 낮은 무언가에 의해 통제된 예를 보신 적이 있느냐"며 AI의 실존적 위협을 강조했다.

김진영 기자 camp@asiae.co.kr

Copyright © 아시아경제. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?