[사이언스프리즘] 인공지능과 윤리의 공존

2022. 8. 24. 23:47
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

AI, 블랙박스처럼 자기 학습
판단근거 설명 아직은 불완전
절대 도덕가치 학습도 딜레마
인간과 선순환적 공진화 과제

2016년 구글 딥마인드 알파고가 이세돌 9단을 꺾으며 우리들에게 충격을 준 지도 벌써 6년이 지났다. 그 사이 인공지능(AI) 스피커나 반자율주행 자동차도 대중화되고, 스마트폰과 가전제품 등 다양한 분야에서 AI가 활발하게 사용되고 있다. 사람의 뇌신경 뉴런을 본떠 만든 것이 대표적인 딥러닝 기술인 인공신경망인 것처럼 AI는 사람을 따라 하며 발전하고 있다. 하지만 사람들도 AI에 영향을 받아 변하고 있기 때문에 AI와 사람이 서로 영향을 받아 발전하는 공진화가 이루어지고 있다. AI를 통해 예전에 상상할 수 없었던 것들이 가능해지면서 사람이 단순하거나 위험한 일을 하지 않고 더 높은 부가가치를 생산하는 데 집중할 수 있게 된 것이다. 공장에서는 AI를 활용해 생산되는 에어컨의 시운전 소리를 분석하여 불량을 탐지하는가 하면, 이제 환자의 기침 소리만 듣고도 AI가 감기 환자인지 코로나19 환자인지를 판단할 수 있는 세상이 되었다.

그러나 빛이 있으면 어둠도 있는 것처럼 AI 기술도 엄연한 한계가 있으며 이러한 한계들은 많은 경우 윤리 이슈와 연결되곤 한다. AI 기술이 우리 일상생활에 깊숙이 파고들었기 때문에 자연스럽게 사람만이 가진 가치판단 체계인 윤리와 상충되는 일들이 일어나고 있는 것이다. 이 때문에 사람과 AI 기술이 선순환적인 공진화를 이루기 위해서는 다음과 같은 문제들이 해결될 필요가 있다. 첫째, AI가 내리는 의사결정이 윤리적인가 하는 것이다. 몇 년 전 미국의 인터넷 쇼핑몰 아마존은 AI를 활용해 당일배송이 가능한 지역을 분석했다. 공교롭게도 당일배송 가능 지역이 백인 거주지, 당일배송 불가능 지역이 흑인 거주지로 예측이 겹치면서 인종차별 이슈에 휩싸인 바 있다. 이러한 결과는 AI가 고의적으로 인종을 차별했다기보다는 아직 AI가 왜 그런 결정을 내렸는지를 알지 못하기 때문이다. 우리가 알고리즘이라는 표현을 쓰고 있지만 아직 AI의 자기학습 과정은 속을 알 수 없는 블랙박스처럼 이해되고 있다. 예를 들어, 수많은 데이터 학습을 통해 AI가 강아지와 고양이를 구별하게 되더라도 AI가 왜 고양이라고 답했는지 정확히 모른다. AI가 뾰족한 귀나 수염, 역삼각형 얼굴처럼 고양이라고 생각한 판단 근거를 우리에게 제공하는 ‘설명 가능한 AI 기술’이 개발 중이지만 아직은 완전하지 않다. 또한, 가짜뉴스처럼 고의적으로 조작된 잘못된 데이터가 분석에 사용될 가능성도 있기 때문에 AI의 결정을 그대로 신뢰하는 데 한계가 있다.
안준모 고려대 교수 과학기술정책학
둘째, AI에게 도덕적으로 옳은 가치를 학습시킬 수 있는가 하는 것도 문제이다. 요즘 전기차뿐 아니라 내연기관 자동차에도 부분적인 자율주행 기술이 탑재되어 있다. 하지만 완전한 자율주행이 된다면 AI가 인명사고가 불가피한 상황에서 어떻게 행동하는 것이 바람직한가가 문제가 될 수 있다. 얼마 전 모 자동차회사 관계자는 고객인 운전자의 안전을 AI의 최우선 가치로 삼겠다고 발표했다가 여론의 뭇매를 맞은 적이 있다. 사고 상황에서 운전자만을 보호하겠다고 해석될 여지가 있었기 때문이다. 이와 관련해서 미국 매사추세츠 공과대학(MIT)은 도덕적 기계(Moral Machine)라는 재미있는 실험을 한 적이 있다. 사람들에게 두 가지 상황을 주고 바람직한 상황 하나를 택하게 하는 간단한 실험이다. 예를 들어, 완전자율주행 자동차가 직진하게 되면 1명의 노인, 1명의 사회지도층, 1명의 여자가 죽게 되고, 핸들을 틀게 된다면 대신 1명의 젊은 학생, 1명의 노숙자, 1명의 강아지가 죽게 될 때 어떤 것이 더 바람직한지를 판단해보라는 것이다. 이 시뮬레이션의 결과는 도덕적으로 올바른 가치를 정한다는 것이 어렵다는 것을 시사한다. 어떤 유형의 사람을 더 보호해야 할지가 나라마다 개인마다 상이하기 때문에 우리가 AI에게 바람직한 기준을 제시할 수 없다는 딜레마에 이르게 되기 때문이다.

AI가 우리 사회에 큰 파급효과를 가져오고 있는 만큼 앞으로 고민해야 할 이슈가 많다. 우리 사회가 AI의 가치를 십분 활용할 수 있도록 AI 기술과 윤리의 공존에 대해 생각해 볼 때이다.

안준모 고려대 교수 과학기술정책학

Copyright © 세계일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?