성희롱에 이어 인종차별, 장애인혐오 논란까지 부른 인공지능 챗봇 '이루다'..개발업체 설명 들어보니

홍진수 기자 2021. 1. 10. 14:31
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

[경향신문]

인공지능 챗봇 이루다. 이루다 페이스북 캡처

인공지능 챗봇 ‘이루다’를 개발한 스타트업 스캐터랩은 “사용자들의 부적절한 대화를 발판으로 삼아 더 좋은 대화를 하는 방향으로 학습을 시키려고 준비하고 있다”며 “1차 결과물은 (올해)1분기 내에 적용할 수 있을 것으로 예상한다”고 밝혔다. 또 “개발 일정상 여자 버전인 루다가 먼저 나온 것 뿐”이라며 “아마도 올해 중으로 남자 버전의 루다도 출시할 수 있을 것 같다”고 말했다.

스캐터랩 김종윤 대표는 지난 8일 자사 블로그(→https://blog.pingpong.us/luda-issue-faq/)에 올린 “오늘 루다 관련 논란에 대해 공식 입장을 밝힙니다”란 글을 통해 이 같이 말했다. 김 대표는 “그 동안의 서비스 경험에 비추어봤을 때, 인간이 (성별과 무관하게) AI에게 사회적으로 용인되지 않는 인터랙션을 한다는 건 너무 자명한 사실이었고, 충분히 예상할 수 있는 일이었다”며 “문제가 될 수 있는 특정 키워드, 표현의 경우 루다가 받아주지 않도록 설정했다. 일부 놓친 키워드는 서비스를 하면서 지속적으로 추가하고 있다”고 말했다. 이어 “모든 부적절한 대화를 키워드로 막을 수 있는 건 아니다”라며 “저희가 사전에 준비할 수 있는 정도로는 충분히 대응을 해놓은 상태였다”고 덧붙였다.

인공지능 챗봇 이루다. 이루다 페이스북 캡처

김 대표는 장기적으로는 이루다가 관계에 맞는 자연스러운 대화를 할 수 있을 것이라고 전망했다. 그는 “업데이트를 해도 사람들은 또 기발한 방법으로 부적절한 대화를 하는 방법을 생각해낼 것”이라며 “그럼 그걸 또 학습 재료로 삼아 학습할 수 있을 것이다. 이 과정을 반복하다보면 루다는 점점 더 좋은 대화를 하는 방법을 배워갈 것”이라고 말했다.

마이크로소프트사가 2016년 트위터를 통해 선보였던 AI ‘테이’처럼 부적절한 대화로 문제를 일으키다 이루다 운영이 중단되는 일은 없을 것이라고 장담했다. 김 대표는 “루다는 사용자와의 대화를 바로 학습에 적용하지는 않고 레이블러들이 개입해서 무엇이 안 좋은 말이고, 무엇이 괜찮은 말인지 적절한 학습 신호를 주는 과정을 거칠 계획”이라며 “나쁜 말을 무작정 따라하는 게 아니라 오히려 그게 나쁜 말이라는 걸 더 정확히 알게 되는 계기로 삼을 수 있다”고 설명했다.

홍진수 기자 soo43@kyunghyang.com

Copyright © 경향신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?