구글의 한 AI 엔지니어가 던진 근본적 지적이 일으킨 파문

신현규 2020. 12. 6. 16:48
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

"대규모 신경망 모델, 편향될 위험 크다"
팀닛 게브루 전 구글 엔지니어의 내부고발
구글 AI 최고책임자와 정면충돌 후 해고
3000여명이 게브루 지지 사인하며 일파만파

구글의 한 인공지능 엔지니어가 회사의 정책과 맞서 독립적 보고서를 출간하려 했다가 퇴직 조치를 당하면서 파문이 커지고 있다. 특히 그녀와 대립하고 있는 인물이 오늘날 구글을 만든 천재 엔지니어 '제프 딘'이라는 점에서 관심은 커지고 있다. 이 엔지니어의 퇴직 조치에 대해 벌써부터 1200명의 구글직원과 1500여명의 학계, IT 업계 인사들의 항의성명이 쏟아지면서 구글에 대한 비난여론이 높아지는 상황이다.

퇴직당한 엔지니어는 누구? 에티오피아 출신의 여성 엔지니어 팀닛 게브루 (Timnit Gebru). 인공지능 분야에서 뛰어난 인물들이 많이 나온 스탠퍼드 대학교 전자공학과 박사를 졸업하고 구글에서 일해 온 인물. 안면을 인식하는 인공지능이 유색인종이나 여성을 인식하는데 정확도가 떨어진다는 논문을 밝혀내면서 큰 화제를 몰고 왔음. 구글에서 인공지능 윤리팀을 만들어 팀장으로 일해 왔으며, 실리콘밸리의 주류 인공지능 연구자들에게 맞서 비판적인 입장을 주로 내놓았음.

제프 딘 구글 인공지능 총괄 부사장. 출처 = MIT 대학교 홈페이지

구글 인공지능 총괄 부사장 '제프 딘'은 누구? 1999년 구글의 25번째 직원으로 입사한 인물. 전현직 구글 엔지니어들의 말을 종합하면 오늘날 구글 소프트웨어의 대부분은 순다르 피차이(현 구글 CEO)와 제프 딘 두 사람이 짰다고 봐도 과언이 아닐 정도로 기여도가 높은 인물. 예를 들어 구글의 인공지능 엔진인 텐서플로우와 인공지능 번역 등이 제프 딘의 작품. 특히 일반 기업이 할 수 없는 초대형 규모의 컴퓨터 신경망을 만드는 프로젝트 '구글 브레인'의 초기 멤버였음.

사건의 발단 : 팀닛 게브루와 워싱턴대학교의 전산언어학자인 에밀리 벤더 교수 등 6명의 연구자들은 구글이 만든 대규모 언어 신경망 모델이 갖고 있는 잠재적 위험을 지적하는 내부 보고서를 작성하고 있었음. 그러나 이 보고서를 외부에 공개하려 하자 계속 윗선에서 저지당했음. 이에 게브루는 마지막으로 이메일을 보내 '정당한 사유 없이 보고서를 공개하지 못하게 한다면 나는 회사를 그만두겠다'라고 선언. 그러자 거꾸로 제프 딘과 함께 일하는 한 직원이 게브루에게 메일을 보내 해고를 통보한 사건임. 게브루는 이 이메일을 받은 뒤 자신의 구글 회사 메일 계정으로 접속을 하지 못하고 있다고 함. 게브루가 이런 사실을 트위터에 쓰면서 사건의 전말이 세상에 대대적으로 알려지게 됨.

니콜라스 르 루 구글 몬트리올 오피스 연구원의 트윗 내용 캡쳐

문제의 보고서 내용 : MIT 테크놀로지 리뷰에 유출된 게브루의 연구보고서에 따르면 구글이 갖고 있는 대규모 언어 신경망 모델의 문제점은 크게 네 가지.

- 첫째, 대규모 언어처리 인공지능 모델은 엄청난 전력소모를 유발해 지구온난화에 영향을 미침

- 둘째, 대규모 언어처리 인공지능 모델은 방대한 데이터들을 학습하는데 그 중에 인종차별, 성차별적 언어들이 섞이면서 인공지능이 잘못된 언어를 학습할 위험 있음.

- 셋째, 현재 대규모 언어처리 인공지능 모델은 인간의 언어를 이해하지 못하면서 흉내내는 것에 집중하고 있음. 이게 인기를 끌고 사람들에게 많이 이용되면서 구글의 인공지능 연구 또한 이 쪽으로 집중되고 있지만, 사실 사람들에게 더 필요한 것은 사람의 언어를 진짜로 이해하고, 보다 작은 데이터라도 잘 학습하는 인공지능일 수 있음. 이런 쪽에 대한 연구는 관심을 받지 못하고 있다는 사실이 큰 위험임.

- 넷째, 대규모 언어처리 인공지능은 인간을 너무 흡사하게 흉내낼 수 있기 때문에 가짜뉴스, 딥페이크 등과 같은 곳에 응용될 수 있음.

보고서는 왜 중요한가? 구글은 2017년 대규모 인공지능 신경망 번역을 처음으로 만든 이후 BERT라는 보다 발전된 대규모 신경망 시스템을 만들어 번역서비스를 강화했음. 이후 BERT는 2019년부터 구글 검색에도 도입되면서 구글에 있어서 핵심적 기술로 자리잡았음. 예를 들어 '우리 집에서 가까운 병원이 어디야?'라는 문장을 검색해도 구글이 최적화된 답을 찾아줄 수 있는 것은 BERT 덕분임. 그런데 보고서는 이런 대규모 신경망 모델이 차별적 언어에 길들여 질 수 있고, 사람의 언어를 흉내만 낼 뿐, 본질적 인공지능은 아니라는 내용을 담고 있음. 즉, 구글의 인공지능 발전 과정 자체에 대한 근본적 문제제기와 비판을 하고 있는 셈임.

구글은 왜 게브루의 보고서를 막았나? 제프 딘은 게브루 등이 작성한 보고서 내용이 "(구글에서 대외적으로 공개할 수 있는) 수준에 미치지 못한다"며 "관련된 다른 연구들을 지나치게 무시하고 있다"라는 이유로 발표를 막았던 것으로 알려짐. 제프 딘은 특히 보고서에서 제기된 문제점들을 해소하기 위해 구글이 하고 있는 다양한 노력들이 담기지 않았다는 점을 문제삼았음. 한마디로 대외적으로 드러내기에는 함량미달이라는 것.

그러나 몬트리올 구글 오피스에서 일하는 니콜라스 르 루 (Nicholas Le Roux)라는 연구원에 따르면 자신이 대외적으로 발표하는 보고서는 한번도 함량미달이나 수준에 대해 점검받은 적이 없었고, 외부에 알리면 민감한지 아닌지 정도만 체크를 받았다고 주장. 결국 게브루의 보고서가 담고 있는 내용이 구글의 인공지능 번역 등의 히트상품들이 탄생할 수 있게 했던 대규모 인공지능 신경망 모델의 존재 자체를 위협할 수 있는 민감한 내용이었기 때문에 막았다고 해석할 수 있는 대목.

왜 이 사건이 중요한가? 게브루는 이후 자신의 동료들에게 보낸 이메일을 통해 구글의 의사결정 과정에 다양성이 결여돼 있다고 강력하게 비판함. 그녀는 "이 조직은 올해 여성을 14%만 채용했다"며 "구글을 전진할 수 없게 만드는 이런 악독한 환경을 중단해야 한다"고 주장. 백인 남성인 제프 딘이 일방적으로 흑인 여성인 팀닛 게브루의 보고서를 '민감한 내용이며 마음에 들지 않는다'고 하여 대외 공개를 막은 사건으로 번지고 있음. 이미 1200여명의 구글 직원들과 1500여명의 인공지능 학계 인사들이 구글의 게브루에 대한 처분에 항의하는 성명서에 서명한 상태.

한국에게 시사하는 점? 대규모 인공지능 신경망은 구글만 만들고 있는 것은 아님. 우리나라에도 다수의 IT 기업들이 비슷한 신경망들을 만들고 있음. 그런 신경망들을 만들때 회사가 해서는 안될 비윤리적 행동을 할 경우 우리나라에도 게브루 같은 용기있는 이들이 나올 수 있을지? 그리고 게브루 같은 용기있는 이들이 나왔다 하더라도 우리 사회가 그의 용기를 지지해 줄 수 있을지? 생각해 볼 대목.

[실리콘밸리 = 신현규 특파원]

[ⓒ 매일경제 & mk.co.kr, 무단전재 및 재배포 금지]

Copyright © 매일경제 & mk.co.kr. 무단 전재, 재배포 및 AI학습 이용 금지

이 기사에 대해 어떻게 생각하시나요?