[AI-META 시대 '미래전략'] <28>AI 윤리

김현민 입력 2022. 8. 9. 16:01 수정 2022. 8. 9. 17:27
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

새 기술의 출현은 인간에게 희망이고 기회다. 특히 기술의 혁신성이 크고 파급력이 강할수록 우리 내면의 크고 작은 욕망이 새로운 출구를 찾기 시작한다. 메슬로우의 '욕구계층 이론'은 상위계층으로 이동하는 현상에 가장 큰 원동력은 신기술 출현이었다고 생각한다. 그래서 젊고 혁신적일수록 사회문화 결정론보다는 기술결정론을 더 믿으려는 경향이 있다. 지금 인공지능(AI)과 메타버스라는 사상 초유의 혁신 신기술로 인해 다시금 흥분하고 기대하며 다가올 미래의 청사진을 그려가는 중이다.

AI 관련 두 가지 사건

우리나라 국민 대부분이 AI와 관련해 경험한 큰 사건이 2개 있다. 하나는 2016년 3월 구글의 AI '알파고' 사건이다. 알파고가 공식적으로 보유한 바둑 전적은 69전 68승 1패다. 그 중 1패가 바로 이세돌 9단이 만든 기록이다. 바둑 공식 세계 1위인 중국의 커제도 3연패 했다. 이 사건은 우리 국민 모두에게 AI의 무한한 잠재력을 인정하도록 만들었다. 나라 전체가 AI라는 새로운 목표를 향해 매진하기 시작했다. 인력 양성, 산업 진흥, 연구 지원이 봇물 터지듯이 쏟아졌고 지금까지도 이어지고 있다.

두 번째 사건은 5년이 지난 2021년 1월에 벌어진 AI 챗봇 '이루다' 사건이다. 이루다는 페이스북에 오픈한 지 3주 만에 서비스를 중단했다. 그야말로 '3주 천하'다. 우리나라 청년 커플이 만들어 낸 카카오톡 대화록 100억건을 학습하다 보니 이루다 이용자의 실감 체험도는 매우 높았다. 구글이 제시한 AI 챗봇 성능평가척도인 '감수성 및 특이성 평균 척도(SSA)'로 따져보면 이루다는 78%를 기록했다. 사람의 SSA가 평균 86%이고, 구글의 초대형 AI 챗봇 '미나(Meena)'의 SSA가 기본옵션으로 72%, 풀옵션으로 79%임을 고려할 때 매우 높은 편이다. 그런데도 서비스를 중단했다.

이루다 사건의 교훈

이루다는 3주 동안 크게 세 가지 윤리와 법적 논란에 휩싸였다. 첫 번째 논란은 10대 청소년의 이루다 성희롱 사건이다. 두 번째 논란은 이루다 안에 학습된 편견과 차별을 유도하는 질문들이 던져지면서 시작됐다. 레즈비언, 지하철 임산부석, 장애인 차별에 대한 이루다의 부정 답변이 여론의 비난을 받기 시작했다. 사실 이루다 답변은 앞서 이루다가 학습했던 방대한 데이터가 무엇이었는지를 생각해보면 그 원인을 쉽게 찾을 수 있다. 그러던 중 결정적인 세 번째 논란이 발생했다. 개발과정에서 개인정보보호법 위반 사실이 밝혀지면서 개인정보보호위원회에 의해 과징금 5500만원과 과태료 4780만원이 부과되고 시정 조치를 명령받았다. 그리고 서비스를 중단했다.

이루다 사건이 우리에게 주는 굵직한 메시지는 크다. 먼저 AI의 막연한 환상이 깨지고 현실적 우려와 불안감이 표면화되기 시작했다. 윤리와 법을 제대로 지키지 않은 AI 제품과 서비스 개발은 사상누각과 같다는 현실적 생각을 하기 시작했다. 윤리 경영과 윤리적 개발이 가장 경제적이고 가장 지속가능한 접근이라는 사실을 체험한 셈이다. 끝으로 AI 윤리가 개발자와 사업자만 지켜야 할 이슈가 아니라 이용자도 알고 지켜야 할 상황에 이미 들어섰다는 점도 꼽을 수 있다. AI 윤리는 더 이상 소수 전문가만이 알아야 할 지식이 아니라 정책 수립가, 공무원, 나아가서는 우리 국민 전체가 알아야 할 상식이자 디지털 역량으로 등장하게 됐다.

AI는 인류의 마지막 기술일지도

모든 기술은 양면성을 가지고 있다. 대부분 좋은 의도로 기술을 개발하고 사용하지만 의도치 않게 부작용과 역기능이 발생하곤 한다. 기술 파급력이 작거나 개인적이면 그런 부작용과 역기능은 크게 문제가 되지 않는다. 인간이 충분히 제어할 수 있기 때문이다. 그러나 우리가 지금까지 다루어왔던 AI나 메타버스처럼 사회 전체 구조를 완전하게 바꾸고 개인의 삶을 송두리째 변화시키는 혁신 신기술이라면 가볍게 넘길 수 없다. 더구나 이 기술은 한 번 사회에 도입되면 다시는 과거로 돌아가기 힘든 '비가역적 기술'이다. 그러므로 처음에 청사진을 그릴 때부터 예견되는 부작용과 역기능을 발굴하고 논의해서 이에 대한 대비책도 같이 세울 필요가 있다. 스티븐 호킹, 일론 머스크, 빌 게이츠가 AI가 자칫 인류의 마지막 기술이 될 수 있다고 반복해 경고한 이유도 여기에 있다.

개발자와 사업자 중심의 AI 윤리

AI 윤리 논의는 AI가 출현하기도 전부터 ‘로봇 윤리’라는 명칭으로 상상 속에 존재해왔다. AI 잠재력이 현실로 드러나기 시작하자 2011년 닉 보스트롬 영국 옥스퍼드대 교수가 ‘AI 윤리’라는 용어를 처음 사용하면서부터 논의가 본격화됐다. 최근까지 AI 윤리는 주로 개발자와 운영자, 사업자가 지켜야 할 윤리에 한정해서 연구해왔다. 국제전기전자학회 IEEE가 2019년 3월 발표한 ‘윤리적으로 조율된 설계(EAD:Ethically Aligned Design)’도 ‘개발자’를 위한 AI 윤리 사례다. 2017년 1월 발표한 ‘아실로마 인공지능 23원칙(Asilomar AI Principles)’ 역시 같은 사례다. 그도 그럴 것이 AI에 있어서 여전히 새로운 연구가 더 많이 추진되며 대중적 보급이 생각보다 늦어진다는 판단 때문에, AI 윤리는 지금까지 개발자 중심으로 한정해 강조됐다. 윤리적으로 바르게 개발하면 만들어진 AI 제품과 서비스에는 아무 부작용이나 역기능이 없을 것이라고 생각했기 때문이다.

AI는 미래 아닌 현재 기술

그러나 생각보다 상황이 빠르게 변했다. 70년 역사를 가진 AI가 1995년 이후 세 번째 부흥기를 맞이한 후 벌써 30년 가까이 지나고 보니, AI는 더는 시작기술이나 준비기술이 아니며 미래기술도 아니다. 이미 AI는 현재 기술이고 모든 사람의 일상에 다양한 모습으로 파고들어와 자리잡은 보편적 일상 기술이 됐다. 더 많은 활용 가능성과 개발 영역이 여전히 무한하게 존재하지만 이미 사용하거나 사용 예정인 AI 활용만을 놓고 볼 때도 우리 사회구성원 모두가 AI의 부작용과 역기능에 대해 함께 고민하고 함께 풀어야 할 상황에 이미 접어들었다.

이용자 중심 AI 윤리도 필요

우리나라 최초 AI 윤리 연구는 2016년부터 이루어졌다. 이 연구 결과로 2018년에 국내 최초 AI 윤리인 ‘지능정보사회 윤리 가이드라인(Seoul PACT)’이 마련됐다. 2020년 말에는 3대 원칙 10대 핵심요건으로 구성된 ‘범정부 인공지능 윤리 기준’이 발표되기도 했다. 그럼에도 AI 윤리에 대한 ‘대중적 인식’이 여전히 부족한 이유는 윤리의 적용 대상을 개발자와 사업자에 한정해온 까닭이다. 이제는 이용자, 정책 관리자 더 나아가서는 우리 국민 전체가 알아야 할 상황으로 바뀌었다. 그래서 필자는 최근에 펴낸 서적 ‘AI는 양심이 없다’에서 이 점을 처음부터 강조했다. 똑똑한 소비자가 똑똑한 제품과 서비스를 만들고, 현명한 정부 관리자가 현명한 국가 정책 계획을 수립한다는 믿음을 바탕에 깔고 있다. 여기에서 강조하는 바를 몇 가지 제시하면 다음과 같다.

AI에 의한 사회적 영향 평가의 필요성

우리 사회 어떤 부분에 AI를 도입하려면 ‘사회적 영향 평가’를 먼저 하는 것이 필요하다. 마치 환경 영향 평가, 교통 영향 평가를 이미 시행하고 있는 것처럼 말이다. AI 때문에 어떤 직업이 없어지거나 혹은 축소되는지 반대로 어떤 직업이 새롭게 등장하게 되는지 고용 문제도 포함하여 평가해야 한다. 예를 들어 학교 현장은 가상 교사 도입이 인간 교사에게 어떤 영향을 줄지 평가해야 한다. 3000만원 이하 소액 민사사건을 AI 판사에게 전담시킨다고 할 때 법원에서 판사 인력 수급과 판사 역할에 어떤 영향을 끼칠지 예측해봐야 한다. 영향 평가에서 중요하게 다뤄야 하는 부분은 우리 사회가 전통적으로 지켜온 가치가 AI로 인해 어떻게 변하게 될지 예측하는 것이다. AI는 개인 삶뿐만 아니라 인간관계 변화에도 크고 작은 영향을 줄 것이다. AI 능력이 뛰어나면 뛰어날수록 AI 과의존과 중독 현상, 책임 소재 문제는 갈수록 심해질 것이다. 점차 우리는 AI를 인간처럼 느끼며 새로운 관계를 형성할 것이다. 2018년에 일어난 일본 AI 게이트박스 사례처럼 AI와 결혼해 사실혼으로 살아가는 사람도 늘어날 수 있다. 이 글을 읽는 독자 중 어떤 사람은 자신의 며느리나 사위가 자연인이 아닌 AI를 맞이할 수도 있다. 마치 동성결혼이 합법인 미국 일부 주에서 자신의 며느리가 남자고 사위가 여자일 수 있는 현실처럼 말이다. 따라서 소수 차별 금지 차원에서나 탈 인간 중심 법체계 논의 차원에서 실현 가능한 현상이다. 그리고 이처럼 예측되고 평가된 결과를 토대로 예견되는 다양한 피해나 위축, 불가피한 변화에 대한 연착륙 전략도 세워야 한다.

EU의 AI 법에서 배우다

모든 분야에서 AI를 도입하는 것이 바람직한 일인지에 대한 사회적 논의도 필요하다. 2021년 4월 유럽연합 집행위원회(EC)가 세계 최초로 ‘인공지능 법(AI Act)’을 제안했다. 이 AI 법의 핵심은 ‘위험(Risk)’을 중심으로 AI 도입 전반을 구분한 것이다. 너무 위험해서 AI로 개발하지 말아야 할 대상을 콕 집어서 세 가지를 명시하고 있다. 매우 위험해서 정말로 조심해서 개발하고 꾸준히 추적해야 하는 고위험 AI 대상도 2개 범주 8개 대상으로 한정해 놓고 있다. 예를 들어 중국이 2014년부터 구축해온 ‘사회신용시스템’은 지금은 전 인민에 대한 ‘사회 신용 제도’라는 사회적 평가도구로 활용되고 있는데 이는 유럽연합 AI 법에서 절대 금지하는 두 번째 대상에 속한다. 코로나 사태 때문에 우리 기업에 급속하게 퍼진 ‘AI 면접’은 고위험 네 번째 대상에 속하며 매우 엄격한 중앙 관리가 필요하다. 반면에 우리 사회는 이에 대한 논의가 공개적으로 이루어진 적이 없다. 2020년 말 우리나라 일부 시민단체가 채용 공정성을 검토할 목적으로 AI 채용기관 13곳에 대한 정보공개 청구를 했으나 영업비밀이라는 이유로 대부분 거절당했다. AI 윤리의 ‘공정성’ ‘투명성’ ‘설명가능성’은 이처럼 사회적 합의와 인식 전환이 없이는 실현 불가능하다.

성숙한 윤리의식 위에 입법은 최소한으로

어떤 사람은 ‘AI 부작용과 역기능이 그렇게 중요하고 시급하면 윤리보다는 법으로 조처하면 되지 않을까’하고 주장한다. ‘미란다 원칙’을 만들어 형사 피의자의 인권 보호에 새로운 기준을 제시했던 얼 워런 미국 연방 대법원장의 말을 인용하고 싶다. “법은 윤리의 최소한이며, 법은 윤리의 바다 위에 떠 있는 배다. 윤리가 없는 법이란 존재할 수 없다.” 법은 인간의 외부로 드러난 행동과 결과에만 관여하는 반면에 윤리는 법의 영역을 포함하면서도 외부적으로 표출된 사안은 물론 표출되지 않은 생각과 태도까지도 민감하게 다룬다. 그래서 어떤 사안에 대하여 먼저 윤리가 세워지고 윤리적 성숙도가 어느 정도 높아질 무렵 최소한의 제한사항을 담아서 법을 제정하는 것이 바람직하다. EC가 AI 법을 제안하기는 했지만 입법이 완성되려면 몇 년 더 걸려야 한다. 그사이에 충분한 윤리적 시험대를 거친다. 반면에 우리나라는 그렇지 못하다. 임기 내 입법 건수가 국회의원의 평가 기준이 되다 보니 더욱 그렇다. 그래서 신기술에 대한 전체적 이해를 통해 통합적이며 원론적인 법 제정이 이루어지기보다는 눈앞의 사안을 해결하기 위해 지엽적 법 제정이나 개정이 앞다퉈 일어난다.

신기술에 대한 종합적 이해 기반 입법화 필요

아울러 신기술에서 법 제정은 윤리적 성숙기를 거침은 물론 다양한 분야의 통합적 관점에서도 입법이 추진될 필요가 있다. 예를 들어 딥페이크의 폐단을 막기 위해 미국 연방법원은 2019년 HR.3230-2019이라는 분야를 초월하는 총괄적인 법을 제정했다. 반면에 우리나라는 ‘n번방 사건’을 계기로 성폭력 범죄만 연루해 ‘성폭력범죄의 처벌 등에 관한 특례법’ 14조 2항 등 일부 조항만을 개정했을 뿐 다른 분야는 손을 놓고 있다. 최근에는 ‘AI 윤석열’과 같은 가상 후보 선거 활용에 한정해 ‘공직선거법 개정안’이 국회에 상정돼 있으며, 메타버스 안에서 이뤄지는 아바타 성희롱과 스토킹에 한정해 ‘정보통신망법 개정안’이 상정돼 있다. 새로운 기술이 등장할 때 깊이 있는 이해와 통합적인 평가를 거친 후 때로는 관련 산업진흥, 때로는 역기능 방지를 위한 입법과정이 유기적이며 통합적으로 이뤄져야 한다. 그렇지 않으면 지엽적이고 산발적으로 입법이 이뤄져서 흔히 말하는 ‘비례의 원칙’을 어기게 되고 처벌의 형평성 문제가 발생하게 된다. 윤리는 경제활동에 있어서 걸림돌이라는 인상이 여전히 강하다. 정부가 제시하는 윤리 가이드라인은 일종의 연성법으로 산업 발전에 규제 역할을 해왔다고 학습되어 온 때문이다. 그럼에도 AI 윤리에 대한 요구는 거의 글로벌 표준화 요구 수준에 가까이 다가섰다. 이제 윤리는 AI와 메타버스 발전에 필수 불가결한 요소로 자리잡기 시작했다는 뜻이다. 현명한 소비자가 현명한 제품과 서비스를 만들어 낸다는 통상적인 진리를 고려할 때, AI와 메타버스가 이끌어내고 있는 지능정보사회가 모두에게 행복을 줄 수 있도록 전체 구성원에 대한 윤리적 공감대 형성을 위한 노력과 정책이 꼭 병행해 이뤄져야 한다.

김명주 서울여대 정보보호학과 교수·국제미래학회 AI윤리위원장

<필자 소개>

김명주 교수는 바른AI연구센터장으로 활동하며 AI의 부작용을 줄이기 위해 보안과 윤리 측면에서 연구하고 있다. 정부 개인정보보호위원회 가명 전문가로서 인공지능윤리정책포럼 및 디지털포용포럼에서 위원으로 활동하고 있으며, 최근 ‘AI는 양심이 없다’라는 인공지능 윤리 책을 출판했다.

Copyright © 전자신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?