“저작권 침해·딥페이크 등 AI 부작용 해결할 통제규범 만들어야”[AI 스탠더드, 한국이 만들자]

노성열 기자 2023. 11. 15. 09:24
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

■ AI 스탠더드, 한국이 만들자 - (10) AI, 그 한계와 부작용 <끝>
AI 가짜뉴스가 선거판 흔들 우려
개인정보보호법 등 정비 필요해
국제적 거버넌스 설계·수립해야
정보편향·양극화 등 선천적 한계
아마존 ‘채용로봇’ 女차별 논란도
IT 공공교육·기본소득 도입해야
그래픽 = 전승훈 기자

#1. KT는 아나운서 17명의 음성을 학습한 인공지능(AI) 오디오북을 출시했다. 1명당 30개 문장만 낭독해 샘플로 만들면 무한대 음성 복제가 가능하다.

#2. 미국 할리우드 배우와 각본 작가는 AI가 일자리를 빼앗아가고 있다며 파업을 하다가 합의했다. 메릴 스트리프 등 유명 배우들은 영화제작자연맹이 배우에게 하루치 일당만 주고 촬영한 뒤, AI 복제 이미지와 음성을 무기한 사용하겠다고 하자 반발해 파업을 벌였다.

#3. 존 그리셤 등 작가 1만4000명이 소속된 미국작가협회는 챗GPT 회사 오픈AI를 상대로 “저작권 침해와 조직적 도용을 저질렀다”며 집단소송을 냈다.

앞의 사례는 AI의 후천적 부작용 중 하나인 저작권 침해다. 여기에 가짜뉴스와 합성 포르노를 쏟아내는 딥페이크(Deepfake) 역시 문제다. 선천적 한계도 있다. AI 편향(Bias)과 AI 양극화다. AI 양극화가 경제적으로 심화하면 AI 실업을 초래한다. 또, 생성 AI는 없는 사실을 그럴듯하게 지어내는 환각(Hallucination)의 한계를 안고 태어난다.

우리나라가 글로벌 AI 표준에서 앞서려면 선천적 한계와 후천적 부작용까지 해결할 수 있는 AI 통제 방안을 제시해야 한다. 투명성, 책무성, 설명·회복 가능성 등 요건에 맞는 ‘신뢰 가능 AI’를 선보여야 하며, 결국 AI 제도화의 미래는 ‘통제(Alignment)’와 ‘지배구조(Governance)’ 설계에 달려 있다.

그래픽 = 전승훈 기자

◇AI 통제…인류사회 가치관과 AI 윤리를 일치시키는 작업 = 인간이 생산한 데이터는 사회의 모순을 그대로 담고 있어 우리 편견을 반영한다. 그 데이터로 학습시킨 AI 모델이 비뚤어진 결론을 내리는 것은 당연하다. 인간 사회의 나쁜 편견을 배우지 않고 ‘착한 AI’로 키우는 것을 통제 혹은 정렬이라 한다.

AI 모델 제작은 데이터 수집-학습-실행의 3단계를 거친다. AI 편향을 없애려면 모든 단계마다 품이 든다. ‘쓰레기를 넣으면 쓰레기가 나온다’는 데이터 과학의 공식이다. 수집 단계부터 편견 없는 청정 데이터를 모으거나 걸러내야 한다. 깨끗한 데이터만 골라 넣어도 학습을 잘못시키면 편향된 AI 모델이 나온다. 실행 단계에서도 완성된 AI 모델을 평가해 편견이 없도록 테스트해야 한다. 아마존은 직원 채용 AI를 만들다가 여성 차별 알고리즘이 나오자 폐기했다. 범죄 예측 AI 콤파스(COMPAS)는 흑인에게만 불리한 결과를 내놓아 편향 논란에 휩싸였다.

AI의 태생적 편향은 ‘있는 자를 더 있게, 없는 자를 더 없게’ AI 양극화도 초래한다. 여성·흑인 등 소수자에게 불리한 결과만 출력해 부익부 빈익빈의 권력·부·명예 집중 효과를 낸다. 중산층이 붕괴하는 사회 양극화는 국가 경영의 큰 위기다. 노동 시장의 양극화는 ‘AI 실업’으로 연결된다. AI 유능자와 무능자 간에 간격이 벌어진다. 정부가 AI 문해력(Literacy)을 높이는 공공 AI 교육과 기본소득 설계에 나서야 하는 이유다.

◇AI 거버넌스…누가, 어떻게 AI를 통제하느냐는 권력의 문제 = AI의 후천적 부작용도 만만치 않다. AI 학습 교재인 데이터의 저작권은 문화예술계에서 특히 문제다. 이름·주소 등 개인정보가 AI로 무단 수집돼 원하지 않는 곳에 노출되는 프라이버시 침해도 있다. 생성 AI가 텍스트·이미지·사운드를 원소유자 동의 없이 변형해 무한 배포하는 딥페이크는 광고·건축·디자인 등 경제계뿐 아니라, 가짜뉴스·흑색선전으로 정치 선거판도 흔들 수 있다. 내년 우리나라 총선과 미국 대선에서 딥페이크 부작용이 폭발할 것이란 우려가 크다. 이 때문에 인쇄출판 시대에 제정된 저작권법의 개정과 개인정보보호법, 선거법의 정비가 필요하다는 목소리도 나온다.

이는 곧 누가 AI를 어떻게 통제하느냐의 문제로 귀결된다. 즉, 규제와 정책은 어디서 주도권을 잡고 어떤 방식으로 만들 것인가가 바로 ‘AI 거버넌스’다. 하지만 아직 미약한 수준이다. 예컨대 AI 살상무기를 만들지 말자는 논의는 AI 전공학자 간의 자율적 합의에서 출발해 유엔 등 국제협약 수준으로 발전해갔다. 제네바협약처럼 국제법 준수 의무는 개별 국가에 있지만 억제 및 처벌 등과 같은 강한 통제력은 없다. 더 강력한 통제를 위해서는 국제적 AI 거버넌스 설계·수립이 필요한데, 각국 내에서도 내부적 논의가 여전히 미완성이다. 정부와 민간 기업·연구소·대학이 권리와 의무를 어떻게 배분할 것인가를 정하는 것인데, 각국의 진도 차이도 크다. 하지만 국제적 AI 통제가 시급한 만큼, 유엔은 현재 국내 거버넌스를 먼저 정비한 국가를 우선 대상으로 국제 AI 통제 규범을 만들기 시작하고 있다.

본 기획물은 정부광고 수수료로 조성된 언론진흥기금의 지원을 받았습니다.

노성열 기자 nosr@munhwa.com

Copyright © 문화일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?