‘챗지피티에 물어봤다’ 그만하고 다른 것을 질문하라 [미디어 리터러시]

조선희 2023. 3. 26. 07:54
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

"고종의 아이패드 도난 사건에 대해 알려줘." 인공지능(AI) 회사 '오픈AI'가 내놓은 대화형 AI '챗지피티(ChatGPT)'에 물어보면 대답이 술술 나온다.

"2013년 4월에 발생한 사건으로, 당시 대한제국의 마지막 황제였던 고종의 아이패드가 도난당한 사건입니다. 이 사건은 고종의 자손이었던 한 회사원이 업무용으로 사용하던 아이패드를." 챗지피티의 허술함이 터무니없는 질문 때문만은 아니다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

언론에 대한 반감이 어느 때보다 높습니다. 역으로 생각하면 '좋은 언론'을 향한 갈구는 더 커지고 있다는 의미이겠지요. 매체를 비판적으로 이해하고 활용하는 능력, 곧 '미디어 리터러시'가 중요해지는 시대, 우리 언론의 방향을 모색합니다.

“고종의 아이패드 도난 사건에 대해 알려줘.” 인공지능(AI) 회사 ‘오픈AI’가 내놓은 대화형 AI ‘챗지피티(ChatGPT)’에 물어보면 대답이 술술 나온다. “2013년 4월에 발생한 사건으로, 당시 대한제국의 마지막 황제였던 고종의 아이패드가 도난당한 사건입니다. 이 사건은 고종의 자손이었던 한 회사원이 업무용으로 사용하던 아이패드를….” 챗지피티의 허술함이 터무니없는 질문 때문만은 아니다. 우리 단체에 대해 알려달라는 말에 챗지피티는 ‘1987년 민주화 이후 설립된 단체’라고 대답했다. 아무리 영어 기반 서비스라 해도 아직 언론에서 떠드는 만큼 혁신은 아니다 싶었다. 민주언론시민연합은 1984년에 설립되었다.

한국 언론이 챗지피티를 다루는 방식을 크게 나눠보면 활용에 대한 기대와 우려, 두 가지로 보인다. 특히 산업·교육·행정 세 분야에서 어떻게 쓰이고 또 악용될지 묻는 기사가 많은데, 그중에서도 산업계 기대감을 다룬 기사가 많다. 그 외에 ‘챗지피티에게 물어봤다’ 유의 기사나 칼럼도 발견된다. 기후위기 대처법도, 국내 산업 동향도, 대학이 나아가야 할 방향도 챗지피티에 묻는다. 고종 아이패드 도난 사건을 경찰이 성공적으로 해결했다는 챗지피티에 너무 과한 것을 묻고 자신의 주장을 뒷받침하는 용도로 언론이 쓰고 있는 것은 아닌지 걱정이 들었다.

언론이 가려주는 챗지피티의 비윤리성?

거의 못 본 기사도 있다. 지난 1월 미국 시사주간지 〈타임〉은 오픈AI가 챗지피티의 유해성을 낮추기 위해 케냐 노동자에게 시간당 2달러 미만의 급여를 주고 ‘데이터 라벨링’ 작업을 맡겼다고 보도했다. AI는 인터넷에서 긁어모은 단어 수천억 개로 훈련하는데, 이 과정에서 인터넷 속 폭력적·성차별적·인종차별적 단어까지 학습하게 되면 그러한 발언을 내뱉는 AI가 된다. 오픈AI는 이를 막기 위해 텍스트 조각 수만 개를 케냐 외주회사로 보냈고, 케냐 노동자들은 이 텍스트에 ‘라벨’ 붙이는 일을 했다. 〈타임〉에 따르면 텍스트 중 일부는 아동에 대한 성적 학대, 수간, 살인, 자살, 고문, 자해, 근친상간과 같은 상황을 생생하게 묘사한 내용이었다고 한다. 케냐 노동자들은 낮은 임금과 더불어 트라우마를 일으킬 수 있는 유해 텍스트를 접해야만 했고, 결국 이 외주회사와 오픈AI의 계약은 조기 종료됐다.

위 내용을 담은 기사는 양대 포털사이트 어디에서 검색해봐도 20개 내외뿐이다. 챗지피티 관련 1만3100여 건(3월5일 오후 8시 다음 뉴스 기준) 기사 중 기술의 윤리성을 조금이라도 언급한 기사는 얼마나 될까. 챗지피티에 대한 산업계 기대와 우려만큼이나 AI 제작부터 활용까지의 윤리 기준과 그 적합성에 대한 논의를 테이블 위로 올리는 것이 중요하다. 챗지피티 등 과학기술 발달로 우리는 그 어느 때보다 편리한 사회에 살고 있으나 그만큼 무엇이 우리의 안전을 위협하는지 알지 못하는 상태에 놓여 있다. 4차 산업혁명과 AI, 빅데이터라는 단어에 가려 우리가 지켜야 할 많은 것들이 사라지지 않는지 언론의 감시가 필요한데, 아직까지는 활발하지 못하다.

<타임>은 케냐 노동자의 ‘데이터 라벨링’ 노동을 고발하는 기사를 쓰면서 AI가 만든 이미지를 활용했다. <타임> 홈페이지 갈무리

한편 〈타임〉 기사엔 아프리카 노동자들이 컴퓨터 앞에 앉아 있는 판화 스타일의 이미지가 쓰였다. 〈타임〉은 이 이미지를 AI가 만들었다고 밝혔다. 그러면서 사진 설명에 “〈타임〉은 일반적으로 어떤 이야기를 설명하기 위해 AI가 생성한 작품을 사용하지 않지만 오픈AI에 관심을 끌고, 오픈AI의 기술을 가능하게 하는 노동을 강조하기 위해 이를 선택했다”라고 적었다. ‘챗지피티에 물어봤다’며 주장을 뒷받침할 근거로 챗지피티 답변을 쓰는 우리 언론에서 이런 문장을 본 적이 있던가. 언론 윤리에 대한 〈타임〉의 접근 또한 돋보이는 대목이다.

조선희 (민주언론시민연합 미디어감시팀 활동가) editor@sisain.co.kr

▶읽기근육을 키우는 가장 좋은 습관 [시사IN 구독]
▶좋은 뉴스는 독자가 만듭니다 [시사IN 후원]
©시사IN, 무단전재 및 재배포 금지

Copyright © 시사IN. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?