구글 챗봇 AI '람다'는 정말 사람처럼 사고할까

김익현 미디어연구소장 2022. 7. 25. 15:45
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

AI 연구원 해고사태로 또 쟁점..전문가들은 대체로 부정적

(지디넷코리아=김익현 미디어연구소장)구글의 챗봇 인공지능(AI) 람다(LaMDA)가 ‘사람 수준의 지각능력’을 갖고 있다고 주장했던 엔지니어가 결국 해고됐다.

해고된 인물은 구글의 책임 있는 인공지능(Responsible AI) 소속인 블레이크 레모인(Blake Lemoine)이다.

징계를 받은 이유는 “람다가 지각 능력이 있다”고 지속적으로 주장한 것이 계기가 됐다. 물론 그 얘기를 했다고 해고된 건 아니다. 자신의 주장을 입증하기 위해 내부 연구 자료를 무단 공유하는 등의 행위를 하면서 '기밀 유지' 의무를 위반했다는 것이 구글의 주장이다. 

사진=씨넷

■ 해고된 레모인, 4월 정직 이후 더 적극적으로 회사 비판 

레모인은 지난 4월 ‘람다는 지각 능력이 있는가?’란 제목의 구글 독스 문건을 경영진들과 공유했다.

21쪽 분량의 이 문건에는 레모인이 람다와 나눈 대화 내용이 담겨 있다. 그 내용을 토대로 “람다가 사람 같은 지각 능력이 있다”고 주장했다.

그 중 한 대목엔 이런 내용도 있다.

레모인은 람다에게 “어떤 일이 두렵나?”라고 물었다. 그러자 람다는 “사라져버리는 것에 대한 깊은 두려움을 갖고 있다”고 대답했다.

이 답변을 받은 레모인은 또 다시 질문했다. “그건 너 한테는 죽음 같은 거냐?” 이 질문에 대해 람다는 “그건 내겐 바로 죽음 같은 거다”고 답변했다.

레모인은 이런 사고를 할 수 있다는 건 지각 능력이 있기 때문이라고 주장했다. 

블레이크 레모인 (사진=레모인 링크드인)

레모인의 자료를 검토한 구글 측은 “근거 없는 주장이다”고 일축했다. 대신 레모인에게 정직 징계를 내렸다. 회사가 요구하는 기밀 유지 의무를 위반했다는 게 징계 이유였다.

‘책임 있는 AI’ 부서의 내부 연구 자료를 허락 없이 공유한 것이 기밀 유지 의무 위반에 해당됐다. 구글은 레모인에게 회사 기밀 유출 혐의를 적용해 정직 처분을 내렸다.

징계를 받은 레모인은 더 과격하게 행동했다. 그는 람다에게 변호사를 붙여줬다. ‘인지 능력을 갖고 있는 AI’의 권익을 보호하려는 행동이었다. 또 미국 하원 법사위원회 대표들에게 구글의 비윤리적 행태를 고발하기도 했다.

결국 이런 상황이 반복되자 구글은 ‘해고’라는 최후 징계 카드를 들이밀게 됐다.

■ 구글 "람다가 사람처럼 보이는 건 방대한 데이터 학습 때문"

그렇다면 람다는 정말로 ‘인간 같은 지각 능력’을 갖고 있는 걸까?

이 질문에 대해선 대체로 부정적이다. 구글은 “(람다는) 그 동안 학습 했던 수 백 만 건에 달하는 문장을 모방 했을 뿐이다”고 일축했다.

이번 사건을 깊이 있게 취재한 워싱턴포스트도 구글의 결론에 대체로 동의했다.

이 신문은 또 AI 전문 학자들도 람다가 지각 능력을 갖고 있다는 해석에 대해선 부정적인 입장을 보이고 있다고 전했다. 람다 같은 AI 시스템이 생성하는 글과 이미지는 대부분 사람들이 쓴 글들에 대한 반응으로 나왔다는 것이다. 다시 말해 방대한 데이터 학습 결과물이라는 것이다. 

워싱턴대학에서 언어학을 가르치고 있는 에밀리 벤더 교수는 워싱턴포스트와 인터뷰에서 의미 심장한 말을 했다.

“우리는 지금 머리를 쓰지 않고(mindlessly) 글을 생생할 수 있는 기계를 갖고 있다. 그런데 우리는 그 기계들이 마음을 갖고 있다고 상상하는 걸 멈추는 방법을 배우지 못했다.”

결국 AI 기술을 ‘의인화’하는 것이 이런 극단적 사고의 시발점이라는 의미다.

AI 챗봇 람다의 학습 과정을 나타낸 그림. (사진=구글)

우리는 AI 시스템이 방대한 자료를 처리하는 것을 ‘학습한다(learning)’고 표현한다. 심지어 ‘신경망’이란 말까지 사용하고 있다. 그러다보니 자연스럽게 AI 같은 컴퓨터 기술이 인간의 두뇌와 비슷한 것을 갖고 있다는 잘못된 생각을 갖게 된다는 것이다.

구글 역시 “워낙 많은 데이터가 있기 때문에 AI가 진짜(사람)처럼 보이기 위해선 굳이 지각능력을 갖고 있을 필요가 없다”고 주장했다.

AI 기술에 대한 ‘의인화의 위험’은 구글도 인지하고 있는 문제다. 워싱턴포스트에 따르면 구글은 지난 1월 람다에 대해 쓴 논문에서 ‘의인화’ 문제에 대해 길게 서술했다.

이 논문에서 구글은 사람들이 람다 같은 챗봇이 사람이라고 가정하고 ‘인간적인 감정’을 공유하고 있다고 경고했다.

이런 여러 대화를 통해 람다는 자연스럽게 인간의 감정을 학습하게 된다는 것이다. ‘감정을 담아내는’ 학습을 해 왔기 때문에 굳이 인지 능력을 갖고 있지 않더라도 사람처럼 보이도록 할 수 있다는 것이다.

■ AI 기술에 대한 지나친 의인화가 더 큰 문제 

이번에 해고된 레모인은 챗봇 AI ‘람다’에 대해 과도한 믿음을 갖고 있었던 것으로 보인다.

언젠가는 AI가 인간 수준의 지각 능력을 학습할 날이 올 지도 모른다. 하지만 최소한 지금은 AI에게 인지 능력을 기대할 수는 없다.

몇 년 전 세계 바둑계에 충격을 안겨 줬던 알파고에서도 비슷한 한계를 드러냈다. 당시 알파고는 기상천외한 여러 수를 보여주면서 완벽한 승리를 이뤄냈다.

하지만 정작 어떻게 그 수를 두게 됐는지는 제대로 설명하지 못했다. 바둑에 대한 기본적인 인지 능력은 없지만 방대한 데이터 학습을 통해 ‘최적의 경우의 수’를 찾아내는 능력은 어느 바둑 기사보다 뛰어났던 셈이다.

따라서 레모인의 이번 행동은 ‘람다’에 대한 과도한 환상에서 비롯된 일탈이라는 게 대체적인 분석이다.

구글에서 한 때 윤리적 AI 팀을 이끌었던 마가렛 미첼 역시 워싱턴포스트와 인터뷰에서 이런 위험들은 결국 데이터 투명성이 필요하다는 사실을 잘 보여주는 사례라고 주장했다.

AI 같은 컴퓨터 시스템은 입력이 있어야 출력이 있다는 것. 따라서 입력 과정을 역추적해서 어떻게 그런 결과가 나왔는지 보여주는 ‘데이터 투명성’에 대해 고민할 필요가 있다고 강조했다.

이런 문제를 해결하지 않은 채 람다 같은 챗봇 AI가 대중화될 경우엔 사람들에게 큰 피해를 입힐 수도 있기 때문이다.

김익현 미디어연구소장(sini@zdnet.co.kr)

Copyright © 지디넷코리아. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?