[책꽂이] AI·알고리즘에도 윤리가 필요한 때

박준호 기자 violator@sedaily.com 2021. 1. 28. 11:38
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

유튜브 영상에 흔히 달리는 '알고리즘이 나를 이 영상으로 이끌었다'는 댓글은 이미 하나의 흔한 밈(meme)이다.

최근엔 AI 챗봇 '이루다'가 동성애?장애인 혐오, 성차별 학습 등의 논란을 일으키면서 이를 구성하는 알고리즘의 윤리 문제가 '발등의 불'이 됐다.

카타리나 츠바이크 독일 카이저슬라우테른 공대 교수는 신간 '무자비한 알고리즘'에서 AI에도 윤리와 사회적 책임이 필요하다고 역설한다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

■무자비한 알고리즘
카타리나 츠바이크 지음, 니케북스 펴냄
[서울경제]

유튜브 영상에 흔히 달리는 ‘알고리즘이 나를 이 영상으로 이끌었다’는 댓글은 이미 하나의 흔한 밈(meme)이다. 인공지능(AI)의 중요성이 부각되면서 알고리즘이란 말은 더욱 친숙해졌다. 최근엔 AI 챗봇 ‘이루다’가 동성애?장애인 혐오, 성차별 학습 등의 논란을 일으키면서 이를 구성하는 알고리즘의 윤리 문제가 ‘발등의 불’이 됐다.

카타리나 츠바이크 독일 카이저슬라우테른 공대 교수는 신간 ‘무자비한 알고리즘’에서 AI에도 윤리와 사회적 책임이 필요하다고 역설한다. 저자는 알고리즘?빅데이터?머신러닝 등 정보기술(IT)에 관한 총체적이고 통합적인 시각에 기초해 알고리즘의 기술적 토대를 설명하고 알고리즘의 투명성을 촉구한다.

알고리즘에 윤리적 고려가 필요한 경우는 인간 행동에 대한 데이터를 토대로 한 학습을 통해 다른 인간의 미래 행동을 추론하고 사회적 자원으로의 접근 여부를 결정할 때다. 이 경우 사회적으로 손해를 끼칠 수 있는 잠재력이 막대한 만큼 사용자의 개입과 감시가 필요하다고 저자는 강조한다. 머신러닝의 알고리즘은 흔히 가치중립적이라고 여겨지지만, 사실은 인간이 변수를 조절할 수 있다. 알고리즘에 투입되는 데이터에도 오류나 차별이 끼어드는 경우가 많다. 저자는 알고리즘에 인간이 관여하는 수준에 따라 등급을 나눠 시스템을 감시하고, 성공적으로 머신러닝을 할 수 있는 조건이 결여됐거나 시스템 투입으로 사회가 부담해야 할 잠재적 손해가 너무 크면 알고리즘 활용을 아예 금해야 한다고 주장한다. 1만8,000원.

/박준호 기자 violator@sedaily.com

Copyright © 서울경제. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?