[윤대현의 마음속 세상 풍경] [51] 전화선 너머 상대는 인간인가, 인공지능인가

윤대현 서울대병원 정신건강의학과 교수 2021. 4. 20. 00:04
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

소셜미디어를 통해 다양한 정보가 유통되는 세상이다 보니 가짜 스토리가 담긴 ‘속임수 뉴스(fake news)’도 함께 증가하고 있다. 속임수 뉴스는 진짜 뉴스보다 더 빠르고 넓게 퍼지며, 이런 현상은 특히 정치 영역에서 두드러진다는 연구 결과도 있다. 2016년 미국 대통령 선거 관련 한 통계에는 특정 후보에게 유리한 가짜 뉴스 스토리가 한 소셜미디어에서만 선거 전 3개월간 3000만 번 공유되었다는 통계치도 존재한다.

논리적으로 잘 따져보는 사람이 속임수 뉴스에 덜 빠지는 것으로 알려져 있다. 그러나 최근의 한 연구에서 정서적인 요소가 가짜 뉴스에 미치는 영향을 살펴보았는데, 결과는 분노 같은 부정적인 감정이든, 자부심 같은 긍정적인 감정이든, 감정적으로 상승되어 있는 상태에서 가짜 뉴스를 접했을 때 속을 확률이 높았다는 것이다. 충분히 예상되는 결과이다. 뛰어난 설득 기술을 가진 웅변가 중에는 분노든 희망이든 강한 감정적 반응을 청중에게 일으키는 타입이 상당수이다. 문제는 진실의 전달이 아닌 청중의 마음을 조작하기 위해 이런 기술을 활용할 때이다.

최근 저명 해외 학술지에 실린 ‘인공지능’에 관한 사설이 흥미롭다. 진실하지 않아도 타인이 자신을 추종하도록 설득하는 데 성공할 수 있다는 것을 보여준 정치 사례가 있는 것처럼, 인간의 설득력을 갖추어 가고 있는 인공지능이 사람에게 해를 주지 않도록 규제 등 고민이 필요한 시점이라는 것이다.

앞의 사설에서 소개된 최근의 한 연구를 보면 4억 개의 신문 기사 데이터 베이스를 학습한 인공지능과 토론 전문가인 인간이 다양한 주제를 놓고 설전을 펼치는 것을 청중이 평가하게 했을 때, 아직 사람에겐 못 미치지만, 인공지능이 사람에게 상당히 근접한 점수를 받았다고 한다. 그래서 언젠가 인공지능이 사람의 마음을 설득 내지는 조종할 수 있는 언어 기술을 확보하게 될 때를 대비해 인공지능에 대한 규제가 필요하단 주장이다. 예를 들어 투명성에 관한 것이다. 내가 전화 등 비대면으로 대화를 하고 있는 상대방이 최소한 사람인지 인공지능인지는 밝혀야 한다는 것이다.

더 나아가 신약 개발에 있어 여러 부작용을 사전에 철저히 테스트하는 규제가 있는 것처럼 인공지능 알고리즘에 대해서도 유사한 통제가 필요하다는 것이다. 무능하고 정직하지 못한 정치 프레임이 선거의 승리에 영향을 줄 때 국가와 국민이 피해를 입는 것처럼, 미래에 기술이 더 발전해 설득의 알고리즘만 강력한 인공지능이 좋지 못한 목적으로 사용될 때 인간에게 오히려 해를 줄 수 있다는 것이다.

Copyright © 조선일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?