[fn스트리트] AI윤리

파이낸셜뉴스 2021. 1. 11. 18:00
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

스티븐 스필버그 감독의 2001년작 A.I.(Artificial Intelligence)는 SF장르 걸작영화다.

하비 박사는 죽은 아들을 빼닮은 인공지능(AI) 로봇 데이비드를 만든다.

"로봇의 순수한 사랑을 만들어낸 인간은 그럼 어떤 책임을 지는 건가요?" 스필버그 감독이 영화를 통해 이야기하고 싶었던 AI윤리학이다.

2017년 초 세계적인 AI 전문가들이 발표한 '미래 인공지능 연구의 23가지 원칙'(아실로마 AI 원칙)에서 이미 제시됐다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

인공지능 챗봇 이루다 페이스북 캡처
스티븐 스필버그 감독의 2001년작 A.I.(Artificial Intelligence)는 SF장르 걸작영화다. 하비 박사는 죽은 아들을 빼닮은 인공지능(AI) 로봇 데이비드를 만든다. 데이비드는 다른 로봇들과 달리 사랑을 느낄 줄 아는 감정이 있는 로봇이다. 사용 매뉴얼에 따라 입력된 대상을 작동을 멈추는 날까지 사랑하도록 만들어졌다. 버림받은 로봇의 질투와 시기 그리고 진짜 인간이 되고자 하는 처절한 몸부림이 그려졌다.

영화에서 누군가 이런 질문을 던졌다. "로봇의 순수한 사랑을 만들어낸 인간은 그럼 어떤 책임을 지는 건가요?" 스필버그 감독이 영화를 통해 이야기하고 싶었던 AI윤리학이다. 감독의 관심사는 인공지능을 통한 인간 구원의 가능 여부나 인공지능의 효능과 폐해가 아니다. 인공지능 로봇의 사랑을 통해 인간을 인간답게 하는 것이 과연 무엇인지를 말하고자 했다. 결국 인간은 자신이 창조한 인공지능 로봇의 사랑에 대해 어떤 책임을 져야 하는지 묻고 있다.

지난달 출시된 AI 대화 서비스 챗봇 '이루다'를 둘러싸고 논란이 일고 있다. 이루다에 대한 이용자들의 성희롱·성착취·소수자 차별·인종차별·개인정보 활용 등 갖가지 이의 제기가 AI윤리 전반의 문제로 번지고 있다. AI 전문 스타트업이 개발한 이루다는 스무살 여성으로 캐릭터가 설정돼 있고, 이용자는 40만명이다. 약 100억건의 데이터를 기반으로, 실제 연인들이 나눈 대화를 활용해 상대방의 감정을 분석해주는 서비스다.

이루다는 성능이 낮은 챗봇에 불과하지만 AI를 통해 차별·혐오가 확산하지 않도록 개발업체가 윤리적 책임을 다했어야 했다. 2017년 초 세계적인 AI 전문가들이 발표한 '미래 인공지능 연구의 23가지 원칙'(아실로마 AI 원칙)에서 이미 제시됐다. 물리학자 스티븐 호킹, 테슬라 최고경영자(CEO) 일론 머스크 등이 서명한 이 원칙에는 "AI 연구의 목표는 방향성이 없는 지능을 개발하는 것이 아니라 인간에게 유용하고 이로운 혜택을 주는 지능을 개발해야 한다"는 내용이다. AI가 편견과 차별을 갖지 않도록 방지해야 한다는 원칙은 이미 국제표준이다.

joo@fnnews.com 노주석 논설위원

※ 저작권자 ⓒ 파이낸셜뉴스. 무단 전재-재배포 금지

Copyright © 파이낸셜뉴스. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?