"인공지능이 실존적 위협" 비판한 학자에 노벨물리학상 준 이유

조현호 기자 2024. 10. 13. 23:45
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

머신러닝 대부 제프리 힌튼, 존 홉필드 교수 수여
수상인터뷰 "무슨일 일어날지 아무도 몰라" 챗GPT 오픈AI도 비판

[미디어오늘 조현호 기자]

▲제프리 힌튼 캐나다 토론토대학교 교수. 사진=노벨상 홈페이지

스웨덴 왕립과학아카데미(한림원)이 올해 노벨 물리학상에 인공신경망의 선구자이자 인공지능(AI:Artificial Intelligence)의 대부 존 홉필드 프린스턴대 교수와 제프리 힌튼 캐나다 토론토대 교수를 선정했다. 이들은 노벨물리학상 선정 당일 인공지능이 실존적 위협이며 무슨 일이 일어날지도, 어떻게 해야할지도 모른다고 경고했다.

특히 제프리 힌튼 교수는 1년 전 구글을 떠난 뒤 인류 멸종까지 우려하면서 AI의 위험성을 설파해왔다. 노벨위원회가 AI의 유익함 보다 위험성을 더 알리고 있는 연구자를 선정한 이유에 관심이 쏠린다.

스웨덴 한림원은 지난 8일(현지시각) 왕립 과학 아카데미는 2024년 노벨 물리학상을 홉필드와 힌튼 교수에 수여하기로 결정했다며 그 사유로 “인공 신경망을 이용한 머신 러닝을 가능하게 하는 기초적인 발견과 발명을 한 공로”라고 설명했다. 특히 그들이 물리학의 도구(tool)를 이용해 인공신경망을 학습시켰다고 했다.

스웨덴 한림원은 보도자료에서 존 홉필드를 두고 “데이터의 이미지와 다른 유형의 패턴을 저장하고 재구성할 수 있는 (컴퓨터) 연상 메모리를 만들었다”고 소개했고, 제프리 힌튼의 경우 “데이터에서 특성을 자율적으로 찾고, 사진에서 특정 요소를 식별하는 것과 같은 작업을 수행할 수 있는 방법을 발명했다”고 설명했다.

스웨덴 한림원은 이번 노벨물리학상 선정자들 연구 관련 배경 자료에서 “컴퓨터는 생각할 수 없지만 기계는 이제 기억과 학습과 같은 기능을 모방할 수 있다”며 “올해 노벨물리학상 수상자들은 이를 가능하게 하는 데 도움을 주었다”고 썼다. '머신러닝(기계학습)'이 일종의 레시피에 따라 작동하는 기존 소프트웨어와 달리 '예제'에 의해 학습하므로, 단계별 지침으로 관리하기에 너무 모호하고 복잡한 문제를 해결할 수 있다고 소개했다.

두 수상자는 모두 AI 위험성을 경고했다. 특히 노벨위원회 측이 이들의 평소 생각를 알면서도 이들을 선정했고, 인터뷰에서도 먼저 이런 내용의 질문을 했다. 노벨상 인터뷰 녹취록을 보면, 제프리 힌튼 교수는 노벨물리학상 수상자 선정 발표 직후 웹사이트 노벨상(THE NOBEL PRIZE) 소속 애덤 스미스와 통화녹음에서 '주목할 만한 점은, 당신이 기술이 가져올 수 있는 것에 대한 두려움을 매우 공개적으로 표현했다는 것', '당신과 다른 사람들이 표현하고 있는 두려움을 달래기 위해 무엇을 해야 한다고 생각하느냐'는 질문을 받았다. 힌튼 교수는 “여기서 우리는 무슨 일이 일어날지, 그에 대해 무엇을 해야 할지에 잘 모르는 문제를 다루고 있다”며 “'이렇게 하면 모든 것이 잘 될 것'이라는 간단한 처방이 있었으면 좋겠다. 하지만 저는 없다”고 답변했다.

힌튼 교수는 “특히 이런 것들이 통제 불능이 돼 있는 실존적 위협과 관련해, 역사상 향후 몇 년 동안은 이러한 위협에 대처할 방법이 있는지를 파악해야 할 일종의 분기점이라고 생각한다”며 “지금 당장 사람들이 통제를 어떻게 유지할 것인지에 대한 문제를 해결하는 것이 매우 중요하다”고 촉구했다. 그는 “이 문제에 많은 연구와 노력을 기울여야 한다”며 “정부가 할 수 있는 한 가지 일은 대기업이 안전성 연구에 더 많은 자원을 지출하도록 강요하는 것이다. 예를 들어 OpenAI와 같은 회사가 안전성 연구를 뒷전으로 미루지 않도록 말이다”라고 비판했다.

존 홉필드 교수도 애덤스미스와 전화 인터뷰 녹취록에서 '힌튼 교수가 머신러닝과 그 잠재력에 대한 두려움을 노골적으로 말하고 있는데, 그의 걱정을 공유하느냐'는 질문에 “네, 저도 그의 걱정을 공유한다”고 답했다. 홉필드 교수는 “사물이 매우 강력해 보이고, 그 이유를 이해하지 못할 때 항상 걱정한다”며 “제어하는 방법을 이해하지 못하거나 제어가 문제인지, 잠재력이 무엇인지 이해하지 할 때” 걱정한다는 의미라고 말했다. 홉필드 교수는 “실제로 이해하지 못하고 작동 방식을 설명할 수 없다면 수학을 충분히 깊이 파고들면 작동하겠지만, 이건 만족스러운 답변이 아니다”라고 밝혔다.

앞서 힌튼 교수는 지난해 구글을 떠난 뒤 5월5일 EmTech Digital 컨퍼런스와 화상 대화에서도 “디지털 지능을 만들 수 있도록 진화시키려면, 생물학적 지능인 인간 지능이 필요하다”며 “그 뒤 디지털 지능은 느린 방식으로, 사람들이 글씨로 써왔던 모든 것을 흡수할 수 있다. 이후 세상을 직접 경험하기 시작하면서, 훨씬 더 빠르게 학습할 수 있다”고 진단했다. 힌튼 교수는 “ChatGPT 같은 AI는 인간이 지금껏 써온 소설을 통해서도 인간의 속성들을 배우고, 마키아벨리의 군주론에서 사람을 조종하는 방법을 배울 수 있을 것”이라며 “당신은 무슨 일이 벌어지는지도 모를 것”이라고 경고하기도 했다.

Copyright © 미디어오늘. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?