노벨상까지 받은 ‘AI’…위기·기회, ‘대부’들 엇갈린 인식 재조명
화학상 공동 수상 허사비스 “이로울 수도, 해로울 수도” 신중한 접근 당부
AI 대부 3인방 중 르쿤 “AI는 인간을 대체할 수 없어, 위험성 과장” 주장
올해 노벨 물리학상·화학상을 거머쥔 인공지능(AI) 관련 분야 연구자들은 AI가 불러올 위험성을 경고하며 과열된 기술 경쟁에 경종을 울렸다. 하지만 위험성이 과장됐다는 반론도 나온다. AI 분야 노벨상 수상을 계기로 ‘AI 대부’들의 인식 차이가 재조명되고 있다.
머신러닝(기계학습)의 기초를 확립한 공로로 지난 8일 노벨 물리학상 수상자로 선정된 제프리 힌턴 토론토대 교수는 수상 직후 인터뷰에서 “AI가 산업혁명에 비견될 것”이라면서도 “통제 불능 상태가 될 수 있는 위협에 대해 우려해야 한다”고 경고했다. 공동 수상자인 존 홉필드 프린스턴대 명예교수 역시 AI 기술 발전에 따라 조지 오웰의 소설 <1984> 속 감시사회가 현실이 될 수 있다고 봤다.
지난 9일 노벨 화학상 공동 수상자에 오른 데미스 허사비스 구글 딥마인드 최고경영자도 “AI는 이로운 일을 할 수 있는 엄청난 잠재력을 가지고 있지만 해를 끼치는 데도 사용될 수 있다”며 신중한 접근을 당부했다.
특히 힌턴 교수는 “AI로 인해 인류가 위험에 빠질 수 있다”며 강하게 목소리를 내온 인물이다. 그는 요슈아 벤지오 몬트리올대 교수, 얀 르쿤 메타 수석 AI 과학자 겸 뉴욕대 교수와 함께 ‘AI 대부’ 3인방으로 꼽힌다. 세 사람은 2018년 딥러닝 관련 공동연구 성과를 인정받아 컴퓨터과학 분야 노벨상 격인 튜링상을 함께 받았다.
지난해 4월 힌턴 교수는 10년간 몸담았던 구글을 떠났다. AI의 악영향을 자유롭게 경고하기 위해서였다. 힌턴 교수는 그간 국제적인 AI 규제 도입을 강조해왔다. 그는 노벨상 수상 직후에도 “정부가 할 수 있는 일은 빅테크가 AI 안전 연구에 더 많은 자원을 투자하도록 강제하는 것”이라고 말했다. 동료인 벤지오 교수 역시 AI의 위험성을 걱정하는 쪽이다.
반면 르쿤 교수는 많은 전문가가 AI의 능력과 위험을 과장하고 있다고 주장한다. 그는 최근 라디오 채널 프랑스앵테르 인터뷰에서 “힌턴과 나는 서로 존경심을 갖고 있지만 그의 우려에 동의하지 않는다”고 말했다.
르쿤 교수는 지난 11일(현지시간) 보도된 월스트리트저널 인터뷰에서 ‘AI가 곧 우리에게 위험을 초래할 정도로 강력해질 것을 두려워해야 하냐’는 질문에 “완전 헛소리”라고 답했다. 오늘날 AI 모델이 유용하긴 하지만 인간의 지능은 물론 집고양이의 지능에도 못 미치고 있다는 것이다. 그는 현재의 거대언어모델(LLM)은 결코 인간처럼 추론하고 계획하는 능력을 달성하지 못할 것이라며 근본적으로 다른 방식이 필요하다고 본다.
앞서 AI 대부들은 AI가 대규모 인적·물적 피해를 일으키면 개발사에 책임을 부과하는 미국 캘리포니아주 AI 규제 법안을 놓고도 대립각을 세웠다. 힌튼 교수와 벤지오 교수는 “기술을 효과적으로 규제하기 위한 최소한의 조치”라며 법안을 지지했다. 르쿤 교수는 “혁신을 억제할 것”이라며 반대했다. 해당 법안은 주 의회를 통과했지만 개빈 뉴섬 주지사가 거부권을 행사해 입법이 무산됐다.
노도현 기자 hyunee@kyunghyang.com
Copyright © 경향신문. 무단전재 및 재배포 금지.
- “나도 부정선거라 생각했었다”···현장 보고 신뢰 회복한 사람들
- 국힘 박상수 “나경원 뭐가 무서웠나···시위대 예의 있고 적대적이지도 않았다”
- 늙으면 왜, ‘참견쟁이’가 될까
- 공영방송 장악을 위한 이사장 해임 “모두 이유 없다”…권태선·남영진 해임무효 판결문 살펴
- 내란의 밤, 숨겨진 진실의 퍼즐 맞춰라
- ‘우리 동네 광장’을 지킨 딸들
- 대통령이 사과해야 되는 거 아니에요? 사과해요, 나한테
- 독일 크리스마스 마켓에 차량 돌진…70명 사상
- [설명할경향]검찰이 경찰을 압수수색?···국조본·특수단·공조본·특수본이 다 뭔데?
- 경찰, 경기 안산 점집서 ‘비상계엄 모의’ 혐의 노상원 수첩 확보