[노벨상 2024] 자신이 토대 닦은 AI 위험성 경고한 '딥러닝 대부' 힌턴

이채린 기자 2024. 10. 8. 20:34
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

올해 노벨물리학상을 수상한 제프리 힌턴 캐나다 토론토대 컴퓨터학과 교수. 위키미디어 제공

올해 노벨물리학상을 수상한 제프리 힌턴 캐나다 토론토대 컴퓨터학과 교수는 얀 르쿤 뉴욕대 교수, 요슈아 벤지오 몬트리올대 교수, 앤드루 응 스탠퍼드대 교수와 함께 ‘인공지능(AI) 4대 천왕’으로 불리는 석학이다. 구글에서도 석학 연구원을 겸임하며 AI 연구를 이어가던 중 2023년 AI의 위험성에 대해 경고하며 퇴사한 것으로 잘 알려져 있다. 

어린 시절부터 뇌, 곤충 등에 큰 관심을 가졌던 힌턴 교수는 1970년 영국 케임브리지대에서 실험심리학 학사, 1978년 에든버러대에서 AI 박사 학위를 받았다. 그는 인간의 인지심리학에 큰 관심을 두면서 인공신경망 연구를 진행했다. 이후 서섹스대에서 연구를 하던 중 미국으로 건너가 미국 샌디에이고캘리포니아대와 카네기멜론대에서 연구를 지속했다. 이때부터 힌턴의 AI 연구가 폭발적으로 발전하기 시작한다. 

AI 발전사에서 보면 1980년대와 1990년대에 AI 연구가 뚜렷한 연구혁신을 내지 못한 시기가 있었으나 힌턴은 계속해서 AI 연구를 이어갔다. 그의 연구 가운데 특히 인공신경망 훈련을 위한 '역전파 알고리즘' 개발은 기계학습과 AI 발전에 주요한 역할을 했다. 

2006년 힌턴 교수는 인공신경망을 효율적으로 학습시키는 방법을 제시하면서 '딥러닝'이라는 신기술을 등장시켰다. 딥러닝은 AI를 학습시키는 ‘기계학습' 방법 중 하나다. 딥러닝은 사람의 뇌가 정보를 처리하는 방식과 비슷한 인공신경망을 이용해 데이터를 분석하고 추론한 다음 스스로 학습한다. 스스로 정보 간의 연관성을 파악해 학습하고 판단할 수 있는 것이다. 딥러닝은 오늘날 생성형AI 모델의 근간이 됐다. 

힌턴 교수는 자신이 개발한 딥러닝 기술을 기반으로 2012년 이미지 인식 경연대회에서 우승해 딥러닝의 실현 가능성을 입증했다. 당시 머신러닝 업체 DNN리서치를 창업했고 2013년 구글이 이 기업을 4억 4000만 캐나다달러(약 4470억 원)에 사들였다. 그러면서 힌턴 교수는 약 10년간 구글의 AI 연구를 겸임했다. 

2016년 마침내 구글 딥마인드의 ‘알파고’가 공개됐고 다음 해에 힌턴 교수가 세계 최대 AI 비영리 연구기관인 ‘벡터 연구소’를 설립했다. 이를 계기로 본격적으로 세계적인 정보기술(IT) 기업들 사이에 AI학자 영입 경쟁이 일어났다. 힌턴 교수는 AI 연구에 공헌한 공로로 2018년 컴퓨터 공학계의 노벨상으로 불리는 '튜링상'을 받았다.

하지만 지난해 힌턴 교수는 AI의 위험성에 대해 경고하며 퇴사했다. 자신이 발전시킨 AI에 대해 보수적인 입장으로 돌아선 것이다. 올해 일본 니혼게이자이신문에 보도된 인터뷰에서 힌턴 교수는 인류를 위협할 존재로 AI를 보는 이유와 관련해 "AI에게 목표를 주면 해결책으로 인간에게 나쁜 방법을 찾아낼지도 모른다"면서 "예를 들어 AI에게 기후변화를 막도록 지시하면 이 목적 달성을 위해 인간을 배제하는 게 필요하다고 생각하고서 실행에 옮길 위험성이 걱정된다"고 말한 바 있다. 

또 그는 "생성형 AI가 인류 지능을 넘어서 인간사회를 지배할 가능성이 있다”고 경고했다. 생성형 AI가 초래할 위험으로는 우선 가짜 뉴스를 이용한 선거 조작을 꼽았다. AI가 공격 목표를 자동으로 설정하는 무기 시스템이 실용화되면 전쟁을 제어할 수 없게 될 것이란 경고도 내놨다. 또 AI가 인간의 일자리를 빼앗으면서 빈부격차가 확대될 것이라고 우려했다.

노벨상 발표 이후 공개된 전화 인터뷰에서 힌튼 교수는 "AI는 우리 사회에 산업 혁명처럼 막대한 영향을 미칠 것이다. 하지만 우리는 우리보다 더 똑똑한 것이 어떤 것인지에 대한 경험이 없다"면서 "우리는 또한 (AI가 가져올 수 있는) 여러 가지 가능한 나쁜 결과, 특히 이러한 일들이 통제 불능이 될 위협에 대해서도 걱정해야 한다"라고 경고하기도 했다. 

조정효 서울대 물리교육과 교수는 "인류가 AI를 막연히 두려워하는 것도, 모든 걸 해줄 것처럼 기대하는 것도 문제다. 이 문제를 해결하기 위해 AI가 어떻게 작동하는지 파악하는 것이 중요하다"면서 "AI가 어떻게 작동하는지 잘 모르더라도 우리 사회에 어떤 영향을 줄 것인지에 대해 고민하고 (AI로 인해 발생할) 윤리적인 문제 등에 대해 진지하게 고민해 볼 필요가 있다"고 말했다. 이번 노벨상을 계기로 인류가 AI가 가져올 여러 변화에 대해 진지하게 고민해야 한다는 설명이다. 

[이채린 기자 rini113@donga.com]

Copyright © 동아사이언스. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?