"AI 시대에도 최종 결정은 인간 저널리스트가 해야"

김달아 기자 2023. 7. 27. 16:52
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

생성형 AI를 활용한 뉴스 제작과정에서 인간 언론인의 책무를 강조한 보고서가 나왔다.

보고서는 "생성형 AI를 활용해 뉴스를 제작하더라도 최종 의사결정을 AI에 맡겨선 안 되며 인간 언론인이 결과물에 책임을 져야 한다는 것이 해외 언론과 학계의 목소리"라고 했다.

번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

언론재단 '생성형 AI 법적‧윤리적 쟁점' 보고서 발간

생성형 AI를 활용한 뉴스 제작과정에서 인간 언론인의 책무를 강조한 보고서가 나왔다. 생성형 AI가 일으키는 법적‧윤리적 문제를 방지하려면 최종 의사결정은 반드시 인간이 해야 한다는 제언이다.

한국언론진흥재단은 27일 이런 내용을 담은 <미디어정책 리포트: 언론산업의 생성형 AI 기술 활용 가능성과 법적‧윤리적 쟁점>을 발간했다. 생성형 AI는 자연어 처리기술에 기반해 인간의 개입 없이 텍스트, 이미지, 오디오, 비디오 콘텐츠 등을 구현하는 기술이다. 이번 보고서는 언론사가 활용하는 생성형 AI 기술의 법적‧윤리적 문제를 진단하고, 그에 따른 사회적 역기능을 최소화하는 방안을 다뤘다.

언론사는 대표적으로 챗GPT, 미드저니 같은 생성형 AI를 활용해 다양한 영역의 생산성과 효율성을 높일 수 있다. 기사‧보고서 요약과 이미지‧인포그래픽 생성을 빠르게 처리하고 데이터 분석, 콘텐츠 추천, 챗봇, 팩트체크 등 여러 분야에서 생성형 AI를 활용할 수 있다.

언론산업 분야에서 생성형 AI 기술 이용은 확산하는 추세다. 다만 그 이면엔 법적‧윤리적 이슈들이 새로운 위험 요인으로 떠오르고 있다. 현재까지 제기된 핵심 쟁점은 저작권과 프라이버시 침해, 허위정보‧혐오‧차별의 확산 등이다. 생성형 AI에 의존하면서 인간의 추가 검증을 소홀히 했을 때 발생하는 문제들이다.

언론재단 보고서는 이 같은 문제를 막기 위해 인간의 역할이 중요하다고 강조한다. 보고서는 “생성형 AI를 활용해 뉴스를 제작하더라도 최종 의사결정을 AI에 맡겨선 안 되며 인간 언론인이 결과물에 책임을 져야 한다는 것이 해외 언론과 학계의 목소리”라고 했다.

보고서는 “생성형 AI를 활용하는 과정에서 저널리스트들의 추가 편집과 팩트체크 등 인간의 개입과 감독을 비롯해 AI 활용 방식, 범위에 대해 투명하게 공개하는 것이 중요하다”며 “생성형 AI 활용이 일반화하는 시대에도 어떤 뉴스를 어떻게 보도할 것인지에 대한 최종 의사결정은 대체될 수 없는 인간 언론인과 편집자의 역할로 남을 것”이라고 했다.

Copyright © 기자협회보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?