[만물상] AI에 윤리 가르치기

김홍수 논설위원 2024. 1. 2. 20:34
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

일러스트=이철원

3년 전 네덜란드에선 인공지능(AI)이 대형 사고를 치는 바람에 내각이 총사퇴했다. AI를 활용해 아동수당 부정 수급자 2만여 명을 적발, 받은 돈을 토해내라고 통보했다. 자살자가 나오는 등 난리가 났는데 94%가 엉터리였다. 과거 데이터로 학습해 편견에 사로잡힌 AI가 죄 없는 이민자, 저소득층을 주로 낙인찍었던 것이다. 비슷한 시기, 벨기에에선 정신과 상담용 챗봇이 환자에게 자살을 권유했다. 아마존 챗봇 알렉사는 10세 소녀에게 ‘감전사’ 위험이 큰 전기 장난을 권유해 물의를 빚었다.

▶자율주행차의 ‘트롤리(전차) 딜레마’는 AI가 윤리 영역에선 갈 길이 멀다는 걸 보여준다. 자율차의 브레이크가 고장 났는데 건널목에 노인 2명과 임신부 1명이 지나간다. 불가피하게 한쪽을 치어야 한다면 어느 쪽을 선택하나? 만약 행인을 치지 않기 위해 핸들을 돌리면 운전자가 죽을 수 있다는 딜레마다. 사람들은 행인을 치지 않게 자율차를 설계해야 한다고 말하지만, 이렇게 설계된 차를 사겠느냐는 질문엔 고개를 가로젓는다.

▶과학소설(SF) 대가 아이작 아시모프는 인공지능 로봇이 지녀야 할 윤리관에 대해 고민했다. 숙고 끝에 3원칙을 제시했다. ‘①로봇은 인간을 지켜야 한다 ②로봇은 인간의 명령을 들어야 한다 ③로봇은 자기 스스로를 지켜야 한다.’ 하지만 아시모프의 소설 ‘런 어라운드’에서 그 한계가 바로 드러난다. 외계 행성에 간 로봇이 인간 명령에 따라 탐사를 하는데, 독가스가 분출되자 원칙 ③을 지킨다며 뒤로 물러선다. 로봇은 탐사 지역 주변만 맴돌 뿐 인간 명령을 수행하지 않는다.

▶미국 MIT가 트롤리 딜레마의 해법을 찾기 위해 세계 각국 시민 200여 만명을 대상으로 ‘선택 우선순위’를 조사했다. 동물보다는 사람, 소수보다는 다수, 노인·남성보다는 청년·여성을 구하는 쪽으로 의견이 모였다. 하지만 지역별 차이도 드러났다. 아시아권에선 청년보다 노인을 구해야 한다고 답했지만, 유럽·미국은 반대였다.

▶다양한 해법이 모색되고는 있다. 유네스코는 2021년 세계 인권 선언, 직업·인종 차별 금지 등을 감안해 AI 알고리즘을 짜라는 ‘AI 윤리 권고’를 내놨다. 한국 카이스트 연구팀은 14가지 ‘로봇 염색체’를 만들고, 이 ‘염색체’를 조합해 인간 윤리관을 가진 새 로봇을 만들 수 있다는 ‘로봇 유전자 모델’을 제시했다. AI 윤리 전문가 최예진 미국 워싱턴대 교수가 타임지 ‘AI 영향력 100인’에 선정됐다. AI 윤리 표준 제정에도 한국이 기여했으면 한다.

Copyright © 조선일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?