가짜뉴스 검색하다 잘못된 정보 더 믿게 된다
인터넷 검색엔진이 일명 '가짜뉴스'로 불리는 허위정보를 사실로 믿게 하는 데 영향을 미치는 것으로 나타났다. 정보의 정확성을 판단하기 위해 인터넷 검색엔진 등 온라인 도구를 활용하는 경우가 많지만 인터넷 검색을 하는 사람들이 그렇지 않은 사람들보다 허위 주장을 사실로 평가할 가능성이 오히려 높다는 것이다. 온라인 공간에서 확산되는 무분별한 정보에 대한 비판적 사고력을 기를 수 있는 ‘디지털 리터러시’ 교육이 필수적이라는 진단이 제기된다.
● 검색했는데도 거짓정보 진실 믿을 가능성 높아져
케빈 애슬렛 미국 플로리다대 교수 연구팀은 이같은 내용을 담은 연구 결과를 20일(현지시간) 국제학술지 '네이처'에 발표했다. 연구팀은 3006명을 대상으로 진행한 실험에서 이같은 결론을 내렸다.
연구팀은 미국에 거주하는 실험 참가자를 대상으로 뉴스의 정확도를 평가하도록 요청했다. 허위정보를 포함한 13개의 뉴스 기사에 대해 '사실', '거짓', '오해의 소지가 있음', '거짓 여부를 판단할 수 없음' 네 가지 항목 중 하나를 선택하도록 한 다음 답변을 분석했다. 열흘간 진행된 실혐 결과 인터넷 검색을 권고받은 이들이 그렇지 않은 참가자보다 거짓 주장을 진실이라고 판단할 가능성이 19% 더 높은 것으로 나타났다.
네 차례에 걸쳐 반복된 추가 실험에서도 일관된 결과가 도출됐다. 인터넷 검색을 활용한 사람들은 잘못된 정보를 진실로 인식하는 경향이 통계적으로 유의미한 수준으로 관찰됐다.
연구팀은 이같은 결과와 관련해 ‘데이터 보이드(data void)’가 결정적인 영향을 미친 것응로 판단했다. 데이터 보이드란 품질이 낮은 허위정보를 사실로 믿을 때 근거가 되는 ‘증거’를 말한다. 진실이 아닌 보도를 보고도 특정 문장이나 문단에 혹해 거짓임을 가려내지 못한다는 얘기다.
네이처는 “연구팀의 실험은 검색엔진을 통해 뉴스를 평가하는 것이 오히려 저품질 뉴스에 대한 신뢰를 높이는 결과를 낳았다는 점을 보여준다”고 짚었다. 연구팀은 "잘못된 정보를 평가하기 위해 검색 서비스를 사용하는 사람들은 낮은 품질의 정보 출처로부터 확증적인 증거를 얻을 위험이 있다"고 말했다.
● 디지털 리터러시 교육은 물론 규제도 검토해야
검색 엔진을 제대로 활용하는 디지털 리터러시 프로그램을 개발해야 한다는 게 연구진의 지적이다. 연구팀에 따르면 최근 세계 각국의 정치적인 분열이 심화하면서 온라인 공간에서 사실의 진위 여부를 가려내는 게 어려워지고 있는 실정이다.
그동안 사회적으로 소셜미디어 플랫폼의 잘못된 정보 확산에 대한 관심은 많았지만 검색 엔진의 ‘위험성’을 파악하려는 연구는 거의 없었다. 그만큼 이번 연구를 토대로 검색 엔진과 디지털 리터러시에 대한 관심이 높아질 필요성이 있다는 분석이다.
특히 인공지능(AI) 기술이 고도화하면서 허위정보 콘텐츠가 더욱 기승을 부리고 있다는 우려도 나온다. 미국의 허위정보 추적 기관인 뉴스가드에 따르면 AI를 활용해 허위정보 콘텐츠를 만들어내는 뉴스사이트는 6월 말 기준 277곳에 달한다. 챗GPT와 같이 문장과 영상을 만드는 생성형AI를 활용해 허위정보를 양산해내고 이를 통해 광고 수익을 얻는 구조다. 지난 5월 미국 증시를 출렁이게 했던 미국 국방부 청사(펜타곤) 폭발 사진과 조 바이든 미국 대통령 사망설과 같은 허위정보들이 이러한 사이트를 통해 생성, 유포됐다.
미국 정부는 내년 대선을 앞두고 AI의 안전성을 높이기 위한 규제를 담은 첫 행정명령을 지난 10월 30일(현지시간) 발표하기도 했다. 기업이 AI를 대중에게 공개하기 전에 안전성 검사를 거치도록 하고, 그 결과를 연방정부에 보고하라는 게 골자다. 특히 국가 안보·경제·공공 보건 등에 위험을 초래할 수 있는 AI를 개발하는 기업은 개발 단계부터 이를 정부에 알리고 객관성이 보장된 검사 결과를 정부에 공유해야 한다. 민주주의를 위협하는 적으로 꼽히는 딥페이크의 위험성을 제거하기 위한 방안도 담겼다. 미 상무부는 이번 행정명령에 따라 AI가 생성한 콘텐츠에 워터마크(식별표시)를 부착하고 콘텐츠의 출처를 확인하는 기술 표준을 마련해야 한다.
[박정연 기자 hesse@donga.com]
Copyright © 동아사이언스. 무단전재 및 재배포 금지.