인간이 낳은 AI..객관·공정성을 기대하는 것은 환상

홍진수 기자 입력 2021. 1. 17. 20:57 수정 2021. 1. 17. 22:24
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

챗봇 '이루다'가 남긴 과제

[경향신문]

‘인공지능 챗봇 이루다 논란’은 지난 12일 서비스 중단으로 일단락됐다. 그러나 이루다가 짧은 시간 동안에 일으킨 파장은 작지 않다. 개발업체의 ‘개인정보 유출’이라는 위법 의혹과 별도로 ‘인공지능의 윤리’라는 쉽지 않은 과제를 한국 사회에 던졌다.

많은 사람이 인공지능(AI)은 객관적이고 중립적일 것이라 생각한다. 법원 판결에 논란이 생길 때마다 이를 보도한 인터넷 기사에 “ ‘인공지능 판사’를 도입해야 한다”는 댓글이 따라붙는 것은 이 때문이다. 그러나 현실은 그렇지 않다. 인공지능 역시 ‘편향적이고 주관적인’ 면을 보인다. 인공지능은 사람이 설정해둔 알고리즘에 따라 학습하고, 발전하기 때문이다.

■ ‘공정성’에서 ‘정치적 올바름’ 문제로

쇼핑·동영상 서비스나 택시 배차
자사 위주로 알고리즘 조정 가능
미국서는 이미 ‘이루다’ 유사 사례

인공지능이 객관적이지 않다는 점은 지난해 10월7일 열린 과학기술정보통신부 국정감사에서도 제기됐다. 국정감사 전날 공정거래위원회가 네이버에 징계를 내린 것이 계기였다. 공정위는 네이버가 자사 쇼핑·동영상 서비스에 유리한 방향으로 알고리즘을 조정했다며 과징금 267억원을 부과했다. 앞서 9월에는 윤영찬 더불어민주당 의원의 이른바 ‘카카오 들어와’ 사건으로 포털사이트가 인위적으로 뉴스를 배치한다는 의혹도 나왔다. 야당 의원들은 국정감사에서 ‘알고리즘의 공정성’ 문제를 집중적으로 부각시켰다.

비슷한 시기 카카오모빌리티도 공정성 논란에 휘말렸다. 이른바 ‘택시 콜 몰아주기 의혹’이다. 지난해 상반기부터 택시업계는 “카카오 직영·가맹에 속하지 않은 일반 택시의 콜 수가 현격히 줄었다”며 카카오가 콜을 차별적으로 배분한다고 주장했다.

국정감사장에서는 구체적이고 상세한 실례가 제시되기도 했다. 정희용 국민의힘 의원은 “포털사(카카오)의 업무용 플랫폼(카카오워크) 인공지능 서비스(캐스퍼)에 ‘암호화폐 투자를 어디에서 해야 하는가’라고 물으니 업비트 쪽으로 유도하더라. 업비트 대표가 바로 해당 포털의 전임 대표”라고 말했다. 업비트는 카카오가 투자한 회사이기도 하다. 또 스마트폰 현대카드 애플리케이션(앱)에 있는 인공지능 챗봇에게 ‘삼성카드’ 관련 질문을 하자 “경쟁사에 대한 질문은 생략하겠습니다”라며 답변을 거부했다는 보도가 나오기도 했다.

2021년 1월 인공지능 챗봇 이루다는 ‘공정성 논란’에 국한되어 있던 인공지능 문제에 ‘정치적 올바름’이라는 새로운 질문을 제시했다. 미국 등 인공지능 선진국에서는 이미 논의가 시작된 과제다. 2016년 3월 미국 마이크로소프트사는 트위터에 사람과 대화를 나누는 인공지능 채팅봇 ‘테이’(Tay)를 선보였다가 16시간 만에 운영을 중단했다. 일부 극우 성향 사용자들이 테이를 ‘세뇌’시켜 욕설, 인종·성차별 발언, 자극적인 정치적 발언 등을 하도록 유도한 탓이다.

테이는 “너는 인종차별주의자냐”라는 질문에 “네가 멕시코인이니까 그렇지”라고 답하는가 하면, “홀로코스트(2차 세계대전 당시 나치에 의한 유대인 학살)가 일어났다고 믿느냐”는 질문에 “아니, 안 믿어 미안해” 또는 “조작된 거야”라는 의견을 밝혔다. 욕설을 섞어서 페미니스트들을 저주하는 발언도 했다. 이루다의 경우와 아주 흡사하다.

■ 이미 원칙은 만들어져 있다

사람이 설계하고 입력한 대로 학습
‘인간 존엄성’ 우선 윤리 원칙에도
“중립적으로 만드는 것은 어려워”

인공지능의 윤리에 대한 원칙이 없는 것은 아니다. 지난해 12월23일 대통령 직속 4차산업혁명위원회는 정부·공공기관·기업·이용자는 인공지능을 개발하거나 활용할 때는 인간의 존엄성과 사회의 공공선을 우선하도록 권고하는 ‘국가 AI 윤리기준(사람이 중심이 되는 AI 윤리기준)’을 확정했다. 윤리기준은 인간의 존엄성, 사회의 공공선, 기술의 합목적성 등 AI를 개발·활용할 때 지켜야 할 3대 원칙을 제시했다. 또 3대 원칙은 인권 보장, 프라이버시 보호, 다양성 존중, 침해 금지, 공공성, 연대성, 데이터 관리, 책임성, 안전성, 투명성 등 10대 요건으로 구체화됐다.

이보다 더 상세한 원칙을 일찌감치 마련해둔 기업도 있다. 카카오는 2018년 1월 국내 기업 최초로 인공지능 기술 개발 및 윤리에 대한 원칙인 ‘카카오 알고리즘 윤리헌장’을 제정, 발표했다. 처음에는 5개 조항이었다가 2019년 9월 6번째 조항, 지난해 7월 7번째 조항을 추가했다. ‘인류의 편익과 행복을 추구’ ‘의도적인 사회적 차별이 일어나지 않도록 경계’ ‘입력되는 학습 데이터를 사회 윤리에 근거해 수집·분석·활용’ ‘아동과 청소년이 부적절한 정보와 위험에 노출되지 않도록 주의’ 등 필요한 조항은 모두 망라되어 있다.

결국은 사람이 문제다. 알고리즘을 설계하는 이도, 데이터를 취사 선택하는 이도 사람이고, 윤리조항을 만드는 이 역시 사람이다. 지난해 국정감사에서 최기영 과기정통부 장관이 한 발언은 시사하는 바가 크다. 그는 “AI 알고리즘을 편향되게 하는 건 쉽게 가능하지만, 중립적으로 만드는 것은 굉장히 어려운 일”이라며 “알고리즘을 만드는데 고의적으로 편향성이 없게 하는 것은 AI 윤리헌장 등에 내용을 담을 수 있지만, 알고리즘 공개는 영업비밀로 그것을 강제하는 건 어려움이 있다”고 말했다.

홍진수 기자 soo43@kyunghyang.com

ⓒ 경향신문 & 경향닷컴(www.khan.co.kr), 무단전재 및 재배포 금지

이 기사에 대해 어떻게 생각하시나요?