“사람 결정 대신하는 AI… 선악 기준·윤리 의식 넣어줘야” [심층기획-AI 앞에 선 민주주의]

조병욱 2023. 9. 12. 19:02
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

(7회) 인공지능과 민주주의 공생의 길을 묻다 <끝>
이준환 서울대 언론정보학과 교수
“예상했던 것보다 발전 속도 빨라… 미디어 리터러시 교육 정말 중요”
김명주 인공지능윤리정책포럼 위원장
“AI시대 정보 유출은 차원 달라… 정보 모아 재구성·추론 등 가능”
이상욱 유네스코 세계과학기술윤리위원회 부위원장
“공생 위해 기술적 특징 이해 중요… AI는 사람 아닌 존재 받아들여야”
2015년 국내 첫 로봇기자 ‘야알봇’(야구를 잘 알고 있는 로봇)을 만든 이준환 서울대 언론정보학과 교수는 인공지능(AI)을 21세기 인류가 찾아낸 ‘불’이라고 정의했다. 잘 사용하면 민주주의와 인류 발전에 큰 도움이 될 수 있지만 잘못 활용하면 인류에 큰 해를 끼치는 도구라는 것이다. 교수를 지난달 29일 서울 관악구 서울대 연구실에서 만났다.
이준환 서울대 언론정보학과 교수가 지난달 29일 서울 관악구 서울대 연구실에서 세계일보와 만나 인공지능(AI)과 저널리즘에 관해 이야기하고 있다. 남제현 선임기자
―AI 발전 속도를 어떻게 평가하나.

“예상했던 것보다 발전 속도가 훨씬 빠르다. 사람을 대체할 것인가를 묻는다면, 사람의 통찰력이 중요하기 때문에 대체는 어렵다고 했는데, 통찰력의 개념을 다르게 보면 대체되는 게 있겠다는 생각마저 든다. 결국 사람은 서로 다른 영역의 연결고리를 찾고, 인과관계를 분석하는 것이 통찰력인데, 그 분야만 사람의 몫으로 남을 것 같다.”

AI발 가짜뉴스는 무엇이 문제인가.

“가짜뉴스는 결국 사람의 집단지성에 의해 파해(破解)된다. 문제는 가짜뉴스가 당연해지는 현상이다. 챗GPT가 처음 나왔을 때 너무 자연스럽게 거짓말을 해 놀랐다. 과거에는 가짜뉴스는 소수의 온라인 커뮤니티 등에서 생성, 배포됐지만 이제 대기업의 AI 서비스에서 가짜뉴스가 나온다. 이를 자연스럽게 받아들이는 사람이 생길 수 있어 위험하다. 대안으로 미디어 리터러시 교육이 정말 중요해졌다.”
저널리즘이 가짜뉴스에 해법이 될까.

“저널리즘은 항상 게이트 키핑과 진실한 정보를 전달한다는 사명감을 갖고 있다. 지금은 너무 많은 정보가 남발되고 있다. 언론이 브랜드를 갖고, 계속해서 메시지를 던지는 게 중요하다. 안타까운 건 저널리즘의 신뢰가 많이 떨어져 있기 때문에 이것을 개선하는 것이 필요하다는 점이다. 어떤 방향을 제시하느냐는 언론 스스로가 찾아야 할 숙제다.”

AI 시대에 적합한 교육의 방식은.

“우리는 전국 사회과학 분야에선 최초로 코딩 교육을 전공 필수 과목으로 정했다. 단순히 코딩을 배워 프로그래밍을 하고, 데이터를 분석하자는 것이 아니다. 우리가 수학을 배우는 이유는 세상이 수학의 원리에 의해 작동되기 때문이다. 우리 사회는 이제 컴퓨터과학 원리에 따라 작동된다. 그런 기본적 개념을 이해하기 위한 것이다. AI가 작동하는 방식, AI를 통한 정보의 전달이 만들어내는 장단점, 우려할 점을 이해하고 있어야 한다. 지금이 AI 교육이 필요한 적기다.”
―AI 기술에 대해 정의한다면.

“AI는 인류에게 불처럼 정말 새로운 도구다. 불이 했던 역할처럼 모든 걸 바꿔놓을 수 있는 새 도구가 될 수 있다. 불을 발견하고 인류가 윤택해지기도 했지만 굉장히 많은 시기, 질투, 싸움도 잦아졌다. 굉장한 진보가 이뤄짐과 동시에 우리가 쌓아온 민주화의 가치가 손상될 수 있다는 걱정도 든다. AI도 그런 도구가 되지 않으려면 결과에 대해 고민을 많이 해야 한다. 이걸 지키는 건 사람의 힘이고, 시민사회의 역할이다.”

◆“AI, 선거 활용 땐 유권자에 고지… 딥페이크 기술 발달로 혼동 우려”

김명주 인공지능윤리정책포럼 위원장(서울여대 정보보호학과 교수)은 2018년 국내 첫 ‘인공지능(AI) 윤리 가이드라인 서울 팩트(PACT)’를 만들어 국가에 헌정했다. 이 공로로 대통령으로부터 근정포장 훈장을 받았다. ‘AI시대의 권리장전’을 만들고 있는 김 위원장이 생각하는 인공지능과 윤리에 관한 이야기를 지난 1일 서울 노원구 서울여대 연구실에서 들었다.
김명주 인공지능(AI)윤리정책포럼 위원장이 지난 1일 서울 노원구 서울여대 연구실에서 세계일보와 만나 AI윤리의 중요성에 대해 강조하고 있다. 남제현 선임기자
―AI에게 윤리가 필요한 이유는.

“AI는 다른 기술과 달리 사람의 결정을 대신한다. 사람은 양심이 있어서 선악을 구분하고, 그게 안 되면 법에 의해 규제를 받는다. 그런데 인공지능은 양심이 없으니 선악의 기준, 윤리 의식을 넣어줘야 한다. 의식이 있지 않으니 학습을 시키거나 알고리즘을 짜야 한다. 인간 공동체 속에서 같이 활동하기 때문에 인간의 가치 기준을 공유해야 한다.”

―알고리즘 편향성은 왜 문제인가.

“우리 사회에는 이미 편향성이 있다. 지역·성별·인종·민족에 따른 차별, 이런 것들이 사회적 데이터에 다 녹아 있다. AI가 학습하면 편향성도 똑같이 배운다. 이 문제를 고치자고 무작정 데이터를 수정하는 것도 주의해야 한다. 인위적 개입이 자칫 왜곡을 발생시킬 수 있기 때문이다. AI를 만들 때 보호변수가 있는데, 이것에 따른 테스트 결과를 공개해야 한다. 유네스코도 AI에 대해 인류 문화가 획일화될 가능성, 다양성이 사라질 수 있다고 경고했다.”
―AI 면접에 대해서는 어떻게 보나.

“AI가 학습한 데이터는 과거 자료다. 예를 들어 기존 합격자 중 남자가 많다면 이 AI는 남성을 많이 채용하는 결과를 내놓는다. AI의 공정성을 높이기 위해 인간 면접관이 채택한 답을 따르도록 학습시키지만 이 인간 면접관이 가진 편향성은 걸러내기 어렵다. 객관적 테스트를 거치도록 한 뒤 AI의 성향을 공개할 필요가 있다. 또 응시자에게 AI와 사람 면접관 중 선택할 권리를 줘야한다.”

―선거에 활용됐을 때 문제점은.

“과거에는 스크립트를 학습해서 그대로 움직였다. 현재는 능동적 AI로 진화하고 있다. 후보자를 바탕으로 학습한 챗봇을 내놓고, 공약을 훈련시켜 유권자와 대화하는 형태가 바로 나올 것이다. 문제는 AI가 이상 발언을 했을 때 누가 책임을 질 것인가다. 유권자에게 AI 기술을 사용할 경우 이를 꼭 알려야 한다. 딥페이크 기술이 발달하면서 자칫 현실과 혼동하는 사람이 생길 수 있기 때문이다.”
―개인정보 유출 양상도 달라질까.

“내 삶 속에 들어와 대화하고, 나의 모든 취향과 성향을 알고 있는 AI 시대의 정보유출은 차원이 다르다. AI는 데이터를 모아 조립하고, 추론까지 한다는 점이다. 이를 프로파일링이라고 하는데, 나는 이미 잊은 과거의 일을 작은 정보를 모아 새롭게 재구성하고 추론해낼 수 있다. 국내에선 아직 이 단계에 대한 강력한 규제가 없는 상황이다.”

―교육에는 어떤 문제가 생길까.

“교육에선 별도의 AI 윤리 가이드라인이 필요한 것 같다. 특히 표절에 관한 부분에서 문제가 많아질 수 있다. 학생은 배우는 과정인데, 단순히 과제를 마치듯 답만 만들어내다 보면 정작 학습을 통해 배워야 할 부분을 놓칠 수 있다. 학생들에게는 AI를 쓸 때, 어디에 썼는지 밝히는 것이 필요할 것 같다.”

◆“과도한 기대·환상 갖고 활용 땐 민주주의 근간 흔들 수 있어 유의”

이상욱 유네스코 세계과학기술윤리위원회(COMEST) 부위원장(한양대 철학과·인공지능학과 교수)은 2017년부터 COMEST 위원으로 활동 중이다. COMEST는 급속한 과학기술의 발전이 사회에 미치는 영향에 대한 윤리적이고 문화적 고찰을 촉진하기 위해 1998년 설립된 자문기구다. 이 부위원장을 지난 7일 서울 성동구 한양대 연구실에서 만나 인공지능(AI)에 관한 철학적 고민을 물었다.
이상욱 유네스코 세계과학기술윤리위원회 부위원장이 지난 7일 서울 성동구 한양대 연구실에서 세계일보와 만나 인공지능(AI)의 철학적 논의에 대해 이야기하고 있다. 이재문 기자
AI의 윤리적 쟁점은 무엇인가.

“민주주의는 사회 구성원들의 성찰적 논의 과정을 통해 사회가 운영되는 방식을 결정하는 것인데 거기에는 AI를 쓰기가 어렵다. 그 결정 과정이 암흑상자에 놓여 있기 때문이다. 논의 과정에서 소수의 의견도 존중받고 공존해야 하는데 이때 사람들은 AI를 사용하고 싶은 유혹에 빠지기 쉽다. 현재 우리 사회는 너무 견해 차이가 크고, 양극화돼 있기 때문이다. 불편·부당함의 신화가 있는 AI를 원하는데 이 지점이 더 위험할 수 있다.”

―민주주의에 위협이 되는 이유는.

“여러 정보가 주어졌을 때 현명한 판단을 할 수 있다는 것이 민주주의의 기본 원칙인데, 이 원칙이 제대로 작동하기 어려운 시대가 되고 있다. 내가 하지 않은 이야기와 말을 통해 내 얼굴을 따라하는 가짜를 감쪽같이 만들고, 그걸 소셜미디어를 활용해 대량 유포할 수 있다. 진짜와 가짜를 판별하기 어렵게 됐다. 결국 민주주의적 논의 과정이 굉장히 파편화되고 양극화되기 쉽다.”
불평등은 어떻게 해소해야 하나.

“AI 개발 과정에서 기업들이 데이터를 크롤링(수집)해서 사용하면서 개인에게 비용을 제대로 지불하지 않았다. 국제회의를 가보면 저개발국이 이 지점에서 분노가 크다. 약자들은 글로벌 기업에 대항해 싸우기가 어렵다. 개인정보를 기존 자본주의 상품 처리 방식으로 처리해서는 문제가 많다. 해법으로는 공공데이터를 늘리는 것이 있다. 공공데이터를 확보하고, 사람들은 거기에 자기 정보를 기증하고 이익을 얻는 구조를 만드는 게 필요하다.”

AI와 공생하는 방법은 무엇인가.

“AI의 기술적 특징을 정확히 이해하는 게 필요하다. 코딩을 배우라는 의미가 아니다. AI가 내놓는 결과물은 대단하지만 기술적으로 이걸 이해하고 내놓는 것이 아니다. 이걸 우리가 받아들여야 하는데 쉽지 않다. 미국에서 인사관리에 AI를 도입했을 때 처음에는 반응이 좋았다. 그런데 해고 과정에서 무자비하고 오전과 오후가 다른 모습을 보이면서 사람들이 정신적인 충격을 많이 받았다. 어떤 감정이나 의식적 경험을 하지 않는 것이다. AI는 사람이 아니라는 걸 받아들이는 게 가장 중요하다.“
―AI 활용 시 주의할 점은 무엇인가.

“AI를 민주적 방식으로 활용하면 민주주의를 더 튼튼하게 만들 수 있지만, 과도한 기대나 환상을 가지면 민주주의의 근간을 흔들 수 있다. AI는 민주주의의 새로운 도전이다. 사람들이 결정을 AI에게 대신 맡기고 싶은 유혹에 빠질 수 있다. 지금 정치가 사람들의 신뢰와 지지를 얻지 못하고 있기 때문에 그런 경향은 가속화할 수 있다. 그런데 그것은 인간의 민주주의를 포기하자는 주장과 다름없다. 이 점을 늘 유의해야 한다.”

※본 기획물은 정부광고 수수료로 조성된 언론진흥기금의 지원을 받았습니다.

특별취재팀=조병욱·박지원·유지혜·김병관 기자

Copyright © 세계일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?