인공지능 ‘4대 거물’의 엇갈린 걸음 [유레카]

구본권 2023. 5. 3. 17:45
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

1919년 양성자를 발견한 당대 최고의 핵물리학자 어니스트 러더퍼드는 1933년 9월11일 영국의 한 학회에서 "원자를 에너지원으로 삼으려는 시도는 모두 헛짓"이라고 연설했다.

힌턴은 국제적 규제를 도입하지 않으면 오픈에이아이(OpenAI)와 구글 등 거대 기술기업들이 벌이는 위험한 인공지능 기술 경쟁을 멈출 수 없을 것이라고 주장했다.

힌턴의 참여로, 인공지능 4대 거물이 모두 성명의 찬반에 참여한 꼴이 됐다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

[유레카]

1919년 양성자를 발견한 당대 최고의 핵물리학자 어니스트 러더퍼드는 1933년 9월11일 영국의 한 학회에서 “원자를 에너지원으로 삼으려는 시도는 모두 헛짓”이라고 연설했다. 헝가리의 물리학자 레오 실라르드는 연설이 실린 신문기사를 읽은 뒤 중성자 유도 핵 연쇄반응을 고안해냈다. 실라르드는 이듬해 비밀리에 원자로 특허를 출원했고 이는 핵무기의 출발점이 됐다. 스튜어트 러셀 버클리 캘리포니아대 교수는 기술 개발에서 경계선을 정하는 게 얼마나 위험한지, 핵개발을 사례로 든다.(스튜어트 러셀 <어떻게 인간과 공존하는 인공지능을 만들 것인가>)

인공지능의 위험성 논의에 거론되는 핵물리학 사례가 챗지피티 논쟁에 다시 소환됐다. 인공신경망을 개발한 인공지능의 개척자이자 대부인 제프리 힌턴 토론토대학 교수가 “나의 일생을 후회한다”고 지난 1일 <뉴욕 타임스>와의 회견에서 술회했다. 힌턴은 인공지능의 위험성에 대해 자유롭게 말하기 위해서 10년 넘게 몸담아온 구글을 사직했다. 힌턴의 후회는 제2차 세계대전 중 로스앨러모스연구소장으로 원자폭탄 개발 맨해튼프로젝트를 지휘한 로버트 오펜하이머의 발언을 연상시킨다. 오펜하이머는 원폭 투하로 숱한 생명이 희생된 뒤 “나는 죽음의 신, 세상의 파괴자가 되었다”고 참회하며 이후 수소폭탄 개발에 끝내 참여하지 않았다.

힌턴은 국제적 규제를 도입하지 않으면 오픈에이아이(OpenAI)와 구글 등 거대 기술기업들이 벌이는 위험한 인공지능 기술 경쟁을 멈출 수 없을 것이라고 주장했다. 힌턴은 지난달 일론 머스크, 요슈아 벤지오, 유발 하라리 등이 ‘삶의 미래 연구소’(FLI)와 함께 발표한 “안전 규약을 만들기 위해 인공지능 연구개발을 6개월간 유예하자”는 성명에 참여하지 않았지만, 이번에 강력한 지지자로 가세한 셈이다.

힌턴의 참여로, 인공지능 4대 거물이 모두 성명의 찬반에 참여한 꼴이 됐다. 요슈아 벤지오 몬트리올대 교수와 제프리 힌턴은 현재 2만7천명 넘게 참여한 “인공지능 개발 유예” 성명에 가세했다. 페이스북의 인공지능 개발을 이끄는 얀 르쾽 뉴욕대 교수와 구글 자율주행차와 바이두의 인공지능 개발을 주도한 앤드루 응 스탠퍼드대 교수는 성명에 반대하며 “인공지능에 대한 규제가 필요할 뿐 개발 유예는 어리석은 일”이라고 뜻을 같이했다.

구본권 사람과디지털연구소장 starry9@hani.co.kr

Copyright © 한겨레신문사 All Rights Reserved. 무단 전재, 재배포, AI 학습 및 활용 금지

이 기사에 대해 어떻게 생각하시나요?