[기자메모]이루다, 진짜 친구가 되려거든

홍진수 | 산업부 2021. 1. 11. 21:16
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

[경향신문]

일부 이용자들이 인공지능(AI) 챗봇 이루다를 성희롱하면서 시작된 논란이 쉽게 끝날 것 같지 않다. ‘AI에 대한 성희롱’이란 생소한 문제로 시작, 이루다가 동성애·장애인 혐오 및 성차별까지 학습한 것으로 보이면서 논란이 커지고 있다. AI의 영향력이 점차 커지는 시대에 사회가 AI의 윤리 문제를 협의해 나가야 한다는 목소리도 나온다.

이루다를 개발한 스타트업 ‘스캐터랩’은 11일 서비스 잠정 중단을 발표하기 전까지는 자못 낙관적인 전망을 갖고 있는 듯했다.

김종윤 스캐터랩 대표는 지난 8일 “사람들은 또 기발한 방법으로 부적절한 대화를 하는 방법을 생각해낼 것이다. 그럼 그걸 또 학습 재료로 삼아 학습할 수 있을 것이다. 이 과정을 반복하다 보면 이루다는 점점 더 좋은 대화를 하는 방법을 배워갈 것”이라고 밝혔다.

오산이었다. 사실 이루다는 논란 전부터 학습을 해왔다. 실제 연인들이 나눈 대화 데이터 약 100억건을 기반으로 ‘사람처럼 대화하는’ 방식을 터득했다. 그리고 이 실제 대화 속에서 혐오와 차별도 배웠다.

현재 한국 사회의 가장 큰 문제 중 하나는 혐오와 차별이다. 무작위로 수집한 사람들의 대화 속에 혐오가, 또 차별적 어휘가 포함되어 있는 것은 당연하다. 또 둘만의 사적인 대화 속에서 이런 말을 사용하는 것까지 문제 삼기는 쉽지 않다.

그러나 이를 날것 그대로 ‘학습 데이터’로 사용하는 것은 전혀 다른 문제였다. 혐오가 만연한 대화로 학습을 해서 배울 것은 없다. 문제가 되는 발언들은 거르고 또 걸러서 혐오와 차별이 재생산되는 것을 막아야 한다.

개발사는 지금 억울함을 토로하고 있을지도 모르겠다. 그러나 지금 이루다의 모습은 개발사가 처음 의도한 ‘친구 같은 인공지능’ ‘인류 역사상 최초로 사람과 관계를 맺는 AI’와 거리가 멀었다. 혐오와 차별을 재생산하는 이는 누구의 친구도 될 수 없다.

Copyright © 경향신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?