10장 짜리 학교숙제, 10초면 다 쓴다니...인간의 지성, 위협 받는다 [사이언스라운지]

이새봄 기자(cestbon@mk.co.kr) 2023. 2. 4. 06:03
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

전문가 수준의 글을 작성하는 ‘챗GPT’가 세상에 나타나자 전 세계가 놀라움과 동시에 혼란에 빠졌다.챗GPT를 개발한 곳은 인공지능개발스타트업인 ‘오픈AI’다.오픈AI가 개발한 챗봇인 ‘챗GPT’는 사용자의 요구사항에 맞춰 사실적이고 지적인 텍스트를 만들어 제공한다. 논문과 기사를 포함해 과거 인간들이 생성해낸 엄청난 양의 기존 텍스트를 AI가 소화해 작업을 수행하는 방법을 배우는 신경망 기반 시스템인 ’대형 언어 모델‘이다. 오픈AI는 지난해 11월 30일에 이를 출시하고 무료 사용을 허용했다.

챗GPT의 경우 시와 소설, 리포트, 블로그 등의 콘텐츠를 자유자재로 구사해 향후 구글의 검색엔진을 대체할 것이라는 평가를 받을 만큼 화제를 모으고 있다. 일각에서는 챗GPT의 등장이 지난 2007년 애플의 아이폰 출시와 비견된다는 평가도 내린다.챗GPT와 같은 생성형 AI는 이용자에게 단순한 검색물이 아닌 독창적인 결과물을 제공하기 때문이다. 마이크로소프트(MS)는 지난달 오픈AI에 추가적인 투자를 단행하는 등 업계에서도 새로운 변화를 대비하는 움직임이 보이고 있다. MS의 사티아 나델라 최고경영자(CEO)는 올해 1월 스위스 다보스에서 열리고 있는 세계경제포럼(WEF)에 참석해 오픈AI가 개발한 챗 GPT 등을 MS 클라우드 애저에 탑재하겠다고 밝히면서 “생성형 AI 도입은 생산성을 높이기 위해 필수적”이라며 “지식 산업에 종사하는 사람들은 AI로 인해 일자리를 잃어버릴 수 있다는 두려움을 갖기보다 새로운 도구를 수용하는 데 익숙해져야 한다”고 강조학도 했다.

하지만 이들이 열게 될 새로운 세계에 학계를 비롯한 다양한 영역에서는 일대 혼란이 벌어지고 있다. 실제 챗GPT가 인간이 쓴 글과 구분하기 어려운 수준의 결과물을 내놓자 이로 인한 부작용이 속속 드러나고 있기 때문이다.지난해 12월 말 논문사전공개사이트인 바이오아카이브(bioRxiv)에 게시된 출판전 논문에 따르면 인공지능(AI) 챗봇은 과학자들이 종종 발견할 수 없을 정도로 설득력 있는 ’가짜 연구 논문 초록‘을 작성할 수 있는 것으로 나타났다. 미국 일리노이주 노스웨스턴대 캐서린 가오 교수 연구팀은 챗봇에게 미국의사협회 학술지인 ’JAMA‘와 ’란셋(Lancet)‘, ’영국의학저널(BMJ)‘, ’네이처 메디신‘에 발표된 논문을 기반으로 총 50개의 인공 연구 논문 초록을 만들고, 과학자들이 이를 발견할 수 있는지를 실험했다.

결과는 처참했다. 연구팀 분석 결과 챗GPT로 작성한 의학 논문 초록 50편이 표절 검사 프로그램을 100% 통과했고, 전문가들 조차도 AI가 작성한 논문 초록의 32%를 가려내지 못했다. 역으로 사람이 쓴 초록 중 14%를 AI가 쓴 초록이라고 ’착각‘하기도 했다. 국제학술지 네이처는 전문가들 마저도 무엇이 ’진짜 논문‘인지를 구분하지 못하는 시대가 온 것에 대해 강한 우려를 표명했다.영국 옥스퍼드 대학교에서 기술·규제를 연구하는 산드라 와처 교수는 네이처의 논평을 통해“우리가 정말 전문가조차 사실에 대한 진위를 판단할 수 없는 상황에 처해 있다면 어렵고 복잡한 주제들 사이로 우리를 안내하는데 필요한 ’중개인‘을 잃었다는 이야기가 된다”고 밝혔다.

이미 10대·20대의 학생들은 모두에게 공개된 챗GPT의 도움을 받아 리포트와 과제를 작성해 학교에서 학생들에 대해 공정한 평가를 내리기 어려워지는 문제가 생겼다. 단어 몇개만 입력하면 챗GPT가 ’완성형 에세이‘를 만들어주기 때문에 학생이 수업 내용을 이해하고 이를 바탕으로 과제를 직접 해 제출했는지 여부를 판단할 수 없어진 것이다.

실제 미국 뉴욕에서는 학생들이 챗GPT를 쓰지 못하도록 학내 와이파이 네트워크에서 챗GPT 에 접근하지 못하도록 막았다.대학들의 경우 집에서 과제를 해오는 대신 구술시험, 자필 보고서 등의 비중을 늘렸다. 디지털의 부작용을 막기 위해 다시금 ’아날로그식‘ 평가방법을 도입하는 셈이다.

챗GPT가 세상에 공개된 지 두 달 밖에 지나지 않았지만 미국 하버드대를 포함해 주요 대학과 연구소들은 챗GPT를 탐지하는 ’방패‘로 사용할 수 있는 프로그램을 개발하고 있다.

이처럼 디지털 기술이 발달하면서 인류의 삶이 편리해진 반면 이면에서는 각종 부작용이 발생해 골머리를 않는다. 기술 발달의 속도가 빨라질수록 부작용으로 인한 피해 역시 가파르게 증가한다. 이를 ’디지털 역기능‘이라고 부른다. 디지털 활용 기술의 특징인 익명성, 가상성, 접근 용이성, 모방성, 경로 의존성은 디지털 기술의 악용을 더욱 가속화하고 있다. 앞서 언급한 챗GPT로 인한 우려 뿐 아니라 AI로 얼굴과 음성을 합성한 딥페이크, 사이버폭력, 디지털 격차로 인해 발생하는 문제, 디지털 치매, 디지털 테러 등도 모두 디지털 사회에서 발생할 수 있는 디지털 역기능이다.실제 한국과학기술기획평가원(KISTEP)이 지난해 7월 국내 디지털 역기능 전문가 32명을 대상으로 심층 설문조사를 한 결과, 전문가들은 디지털 역기능의 심각성 수준이 현재 6.8점(10점 만점)으로 매우 높은 수준이라고 우려했다. 이들은 향후 이 심각성이 58% 이상 증가할 것이라고 내다봤다. 또한 미래 디지털 역기능에 가장 큰 영향을 미칠 기술로는 AI(50%)가 꼽혔으며 메타버스(21.9%), 블록체인(15.6%), 지능형 로봇(12.5%) 순으로 나타났다.

Copyright © 매일경제 & mk.co.kr. 무단 전재, 재배포 및 AI학습 이용 금지

이 기사에 대해 어떻게 생각하시나요?