리포트도 대신 쓰는 AI…가짜뉴스·편견에 빠져 삐뚤어진다

배한님 기자, 윤지혜 기자 입력 2023. 1. 28. 09:20 수정 2023. 1. 28. 14:26
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

[MT리포트-챗GPT 열풍]⑤ AI가 촉발한 윤리논란들

[편집자주] 사람처럼 자연스럽게 대화할 수 있는 AI 챗봇 '챗GPT'의 등장으로 전세계 IT업계가 긴장하고 있다. 챗GPT가 산업은 물론 교육·노동·예술 패러다임을 전환할 것이란 전망이 쏟아진다. 챗GPT의 위력과 사회적 여파, 우려점을 살펴보고 국내 초거대 AI 언어모델 연구현황을 짚어본다.

/사진=게티이미지뱅크

챗GPT로 '생성 AI' 시대가 본격화됨에 따라 다양한 윤리적 문제가 제기된다. 당장 시끄러운 곳은 대학 등 학계다. AI를 활용한 과제나 논문 대필이 벌써부터 빈번하게 포착돼서다. 실제 챗GPT로 논문을 '대필'하는 사례가 이어지면서 미국 뉴욕시는 공립학교 내 챗GPT 접속을 차단했고 조지워싱턴대는 AI 영향력 밖인 구술시험과 그룹평가를 확대하기로 했다. 아예 시험과 과제물 제출에 컴퓨터대신 수기 시험을 확대하는 곳들도 늘고 있다. 영국의 130여 개 대학은 챗GPT가 에세이나 리포트 작성에 악용될 수 있다고 우려하는 성명을 냈다. 국제머신러닝학회(ICML)는 AI 도구를 활용해 과학논문을 작성하는 것을 금지했다.

국내에서도 이같은 우려가 나온다. 권석준 성균관대 화학공학과 교수는 페이스북에 "봄학기 실라부스(강의계획)를 고치다가 '연구에 챗GPT를 포함해 모든 생성 AI를 사용할 수 있으나, PSET 및 시험에 자동 생성 및 약간 수정된 답안을 복사 붙여넣어 제출하는 것은 불가능하다'는 문장을 추가했다"라고 말했다.

대필문제가 불거지자 오픈AI는 부랴부랴 챗GPT가 생성한 문장을 식별해내는 워터마킹 기술을 개발하고 나섰다. 반면 챗GPT를 막을 수 없는 만큼 오히려 적극적으로 가르치고 활용하도록 해 부작용까지도 체득시켜야한다는 의견도 있다. 시민단체 '변화를 꿈꾸는 과학기술인 네트워크'의 설문에 따르면 응답자의 53% 이상이 챗GPT 결과물 활용 시 '창작과 독창성의 문제'가 있다고 답했다.
사람 점점 닮아가지만…AI의 표절·편향·가짜뉴스 문제는 누가 책임지나
챗GPT 사용을 금지한 몬트리올 대학 공지. /사진=몬트리올 대학 홈페이지 갈무리

리포트나 논문 대필은 빙산의 일각이다. 틀린 답변을 정답처럼 말하는 '할루시네이션'(환각) 현상은 더 큰 문제다. 챗GPT는 기본적으로 인터넷상 텍스트 데이터를 통해 훈련하는 만큼 데이터에 존재하는 편견과 가짜뉴스, 잘못된 정보를 영구화할 수 있다. 아울러 챗GPT는 자연어를 처리하는 도구인만큼 특정 집단에대한 동향감시 또는 악의적 목적으로 오용될 수 있다는 우려도 나온다.
챗GPT 결과물에 저작권을 어떻게 부여할지도 논란이다. 아직까지 '생성 AI'가 스스로 온전히 창작물을 만들어내지 못하는 '약(弱) 인공지능' 단계에 머물러 있기 때문에 창작에 개입한 인간이 저작권을 갖는 것으로 본다. ICML에서 챗GPT의 결과물을 참고해서 다시 재작성(Paraphrasing)하는 것은 크게 문제 삼지않겠다는 것도 같은 이유에서다. 그러나 향후 AI가 인간처럼 스스로 창작할 수 있는 '강(强) 인공지능' 수준까지 발전하면, AI가 생성한 작품에 대한 저작권은 누가 갖게될 것인지 아직 아무도 답을 내리지 못하고 있다.
AI 법인격 부여할 수 있을까…규제 앞서'사회적 합의' 필요
이에 전문가들은 한시라도 빨리 우리 삶에 침투하는 AI와의 동거를 위한 사회적 논의와 합의에 나서야한다고 입을 모은다.

AI를 어떻게 바라볼 지 규정하지 못한 상태에서 상용화가 시작되자 세계 각국이 AI 규제카드를 만지작거리는 것도 이때문이다. 유럽에서는 AI 기술을 위험도에 따라 세 단계로 나누고 이에 맞춰 규제하는'인공지능법(AI Act)'를 준비 중이다. 국내에서도 과학기술정보통신부와 '인공지능 윤리 포럼'이 연내 발표를 목표로 인공지능 윤리원칙 체크리스트를 만들고 있다. 이와관련, 오혜연 카이스트 전산학부 교수는 "AI도 원자력처럼 누가·어떻게·어떤 맥락에서 사용하는지가 중요하다"며 "생성 AI가 악용이 됐을 때 누구에게 책임을 물어야 하는 가에 대한 사회적 합의가 규제에 앞서 필요하다"고 지적했다.

국제인공지능&윤리협회는 AI 기술 발전과 윤리의 공존을 위해서는 자율규제 영역을 최대한 확보해야 한다고 주장한다. 전창배 국제인공지능&윤리협회 이사장은 "의약품처럼 인간에게 많은 영향을 미치는 고위험 인공지능(자율주행차·AI 면접관·AI 판사 등)은 민관이 함께 만든 AI 영향평가를 적용하고, 그보다 위험도가 낮은 중저위험 인공지능(AI 챗봇·스피커) 등은 민간의 윤리 가이드라인을 따르도록 해야한다"고 말했다.

배한님 기자 bhn25@mt.co.kr, 윤지혜 기자 yoonjie@mt.co.kr

<저작권자 ⓒ '돈이 보이는 리얼타임 뉴스' 머니투데이, 무단전재 및 재배포 금지>

Copyright © 머니투데이 & mt.co.kr, 무단 전재 및 재배포 금지

이 기사에 대해 어떻게 생각하시나요?