[단독] 이루다 만든 스캐터랩 대표 "이루다 논란, 오늘 입장 밝힌다"

문희철 2021. 1. 11. 17:06
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

스캐터랩이 출시한 인공지능 챗봇 서비스 이루다. [유튜브 캡쳐]

11일 오전 서울 성동구 성수동의 한 건물. 인공지능(AI) 챗봇 서비스 ‘이루다’를 선보인 스타트업 스캐터랩의 본사 사무실이 있는 곳이다. 이날 오전 9시50분이 넘어서야 직원 10여 명이 출근하기 시작했다. 지난 주말부터 이루다가 각종 논란을 야기하며 사회적 이슈로 떠오르자 직원들도 경직된 표정이었다. 인터뷰를 요청하는 기자의 질문에 이들은 하나같이 고개를 숙이며 사무실로 들어갔다.

정오가 다 돼서야 김종윤 스캐터랩 대표가 얼굴을 비쳤다. 김 대표는 “언론사에서 질문이 쇄도해 일절 연락을 받지 않고 있다”며 “현재 언론에서 제기한 다양한 궁금증을 해소할 수 있는 입장문을 작성 중이다. 외부 검토를 거쳐 11일 중으로 발표할 계획”이라고 말했다.

'이루다'는 자연스러운 대화가 가능한 인공지능 챗봇이다. [사진 스캐터랩]



이루다가 쏘아 올린 ‘AI 윤리’ 논란
이루다가 불과 2~3일 새 뜨거운 감자로 떠오른 것은 AI의 기능과 역할에 대한 사회적 컨센서스가 아직 정립되지 않았기 때문이다. 먼저 인간이 세운 윤리나 도덕 관념을 AI에게도 적용해야 하는지, 아닌지가 이슈다. 그간 개발자나 사용자 등 인간이 AI를 개발·사용하는 과정에서 윤리적으로 행동해야 한다는 주장은 있었다. 하지만 이 같은 가치관을 ‘일종의 컴퓨터’인 AI에게도 적용할 수 있느냐는 여전히 논란거리다.

이수영 한국과학기술원(KAIST) 인공지능연구센터장은 “AI는 인공적으로 만든 지능인데, 지능은 사람의 두뇌를 모사하기 때문에 AI도 사람의 윤리를 가져야 한다”며 “기술적으로도 AI에게 인간의 윤리를 적용할 수 있고, 당연히 그렇게 해야 한다”고 주장했다. 예컨대 학습과정에서 차별이나 혐오을 떠올리는 단어가 나오면 제외하고, 일정 기준을 충족하는 경우에만 학습하도록 AI를 계도할 수 있다는 주장이다.

AI가 인간의 학습능력과 추론·지각능력 등을 컴퓨터 프로그램으로 실현한 기술이어서다. 인간이 스스로 사고하고 학습하는 행위를 모방해, 기존 데이터를 기반으로 학습하는 컴퓨터를 의미한다.

[커뮤니티 캡처]

반면 AI에게 인간의 윤리를 적용하기가 현실적으로 쉽지 않다는 주장도 있다. 인간의 ‘윤리’ 자체가 기준을 세우기 어렵고, 시대나 장소에 따라 달라질 수 있기 때문이다. 예를 들어 남북전쟁이 벌어지기 전 미국 남부에서는 흑인을 노예로 부리는 것이 비도덕적인 행위라는 비난을 받지 않았다.

이루다가 10~20대에게 선풍적인 인기를 누리는 건 이루다가 통상적인 개념의 ‘도덕성’을 갖추기보다는, 사람의 대화를 모방해 진짜 사람처럼 대화하기 때문이다. 때론 어느 정도 도덕적이지 않은 사람이 더 매력적인 경우도 있다.

이준기 연세대 정보대학원 교수는 “AI는 어떻게 교육하느냐에 따라 달라지는데, AI에게 윤리적 기준을 강요하는 것은 무리한 측면이 있다”고 주장했다. 그는 “인간의 대화를 모방한 챗봇의 의견을 두고 AI 윤리를 논하는 건 다소 무의미한 논쟁”이라고 선을 그었다.

공식 웹페이지에 소개된 이루다의 정체성. [사진 이루다 웹페이지 캡쳐]


AI에게 인간 윤리를 요구할 수 있을까
이루다가 서비스를 지속해야 하는지 아닌지도 논란거리다. 도덕성·편향성 문제가 불거진 상황에서 일단 스캐터랩이 이루다 서비스를 종료해야 한다는 주장과 지금 멈추면 기술 개발이 늦어진다는 반론이 맞서고 있다. 이재웅 전 쏘카 대표는 10일 자신의 소셜미디어를 통해 “(이루다 챗봇은) 사회적 합의에 못 미치는 수준의 서비스”라며 “일상 대화에서 차별·혐오를 학습한 결과를 보정 없이 대중에게 서비스하는 것은 문제”라고 비판했다.

이명호 재단법인 여시재 디지털플랫폼팀장은 “인간도 편견이 있기 때문에 이를 기반으로 학습한 AI도 편견을 갖는 건 당연한 현상”이라며 “다만 사적인 대화와 공적인 대화가 다르듯, 편견이 있는 AI가 다수의 대중을 상대로 공식적인 서비스를 제공한다면 문제가 될 소지가 있다”고 설명했다.

20대 여대생을 페르소나로 개발한 인공지능 챗봇 이루다. [페이스북 캡쳐]


데이터가 쌓이면 쌓일수록 발전하는 AI의 특성상 서비스를 지속하면서 보완해야 한다는 반론도 있다. AI는 학습하기 위해서 머신러닝(machine learning·기계학습) 과정을 거친다. 머신러닝은 컴퓨터에 통계적 데이터를 입력해 컴퓨터가 스스로 새로운 결과를 얻어내도록 하는 기술이다. ‘윤리’라는 기준을 중심으로 머신러닝이 진행돼야 한다는 뜻이다.

데이터의 편향성을 보완한 뒤 서비스를 제공하는 것이 좋다는 의견도 나온다. 유효상 숭실대 경영학과 교수는 “AI는 좋은 데이터가 들어가면 좋은 아웃풋(결과물)을 보여주고, 편향적 데이터가 들어가면 편향적 아웃풋이 나온다”며 “이루다도 극단적인 의식을 상쇄할만한 보다 충분한 데이터를 확보해 이를 보완한 뒤 서비스를 할 수 있는 휴식기를 가지는 것도 좋다”고 조언했다.

한편 이루다가 자사 애플리케이션 개인정보를 제대로 익명화(비식별화)하지 않았다는 논란이 불거지자 정부가 스캐터랩에 대한 조사에 착수했다. 개인정보위원회 관계자는 “스캐터랩에 자료를 요구해 사실 관계를 확인하겠다”며 “만약 위법한 사항을 발견하면 법령에 따라 조치하겠다”고 말했다.

문희철 기자 reporter@joongang.co.kr

Copyright © 중앙일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?