새 과학계 골칫거리... ' AI 대필 논문’ 작년에만 1만건 이상 ‘철회’

박지민 기자 2024. 6. 9. 20:18
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

과학계 골칫거리
생성형 AI가 만든 엉터리 문장과 그림이 학술 논문에 은밀하게 사용되는 사례가 늘고 있다. /게티이미지

세계적 학술 출판사 엘스비어가 간행하는 한 학술지에 지난 3월 발표된 논문이 최근 삭제되는 일이 벌어졌다. ‘영상의학 사례 보고’라는 학술지에 게재된 이 논문은 미국 하버드대, 이스라엘 히브리대 연구진이 공동으로 간이 손상된 생후 4개월 환자를 관찰한 내용에 관한 것이다. 논문 삭제 이유 중 하나는 생성형 인공지능(AI)을 논문 작성에 여과 없이 사용했다는 점이다. 논문의 결론 격인 ‘논의’ 부분에 “미안하지만 나는 AI 언어모델이기 때문에 환자의 실시간 정보와 데이터에 접근할 수 없다”는 황당한 문장이 나온다. AI가 작성한 내용을 그대로 복사해 붙여 넣은 것이다. 해당 학술지는 “저자들은 논문 작성 과정에서 생성형 AI를 사용했다는 것을 공개하지 않았다”며 “이는 저널의 정책을 위반하는 것”이라고 지적했다.

◇AI발 저질 논문 급증

2022년 11월 오픈AI가 개발한 ‘챗GPT’ 출시 이후, 생성형 AI가 학계의 골칫덩이로 떠올랐다. 학술 논문에 AI가 만들어낸 텍스트와 이미지가 무분별하게 사용됐다가 적발되는 경우가 늘고 있다. 생성형 AI에 데이터를 넣어 손쉽게 논문을 작성하고, 그 결과물을 별다른 검증 없이 발표하는 사례가 잇따르는 것이다. 일부 학술지는 돈을 받고 이런 저급 논문을 게재해 주고 있는 것으로 알려졌다.

미국 스탠퍼드대 연구팀은 2020년 1월부터 2024년 2월까지 게재된 논문 95만965편을 분석해 거대언어모델(LLM)을 사용한 논문의 수가 빠르게 늘어났다는 연구 결과를 지난 3월 발표했다. 연구팀은 ‘realm(영역)’ ‘intricate(복잡한)’ ‘showcasing(보여주는)’ ‘pivotal(중추적인)’ 등 이전 학술 논문에서는 잘 보이지 않던 단어들이 챗GPT 출시 직후인 2023년부터 사용량이 급증한 사실을 발견했다. 이 용어들은 학계에서는 관행적으로 거의 사용하지 않지만, 챗GPT는 논문 이외 다른 콘텐츠도 학습하면서 이런 용어를 자주 쓰는 경향이 있는 것으로 알려져 있다. 연구팀의 분석 결과 컴퓨터과학 분야에서 AI가 사용된 것으로 추정되는 논문의 비율은 2021년 1월 약 2.5%에서 17.5%로 급증한 것으로 나타났다. 연구를 총괄한 제임스 주 교수는 “AI가 연구 수행 방식을 완전히 변화시키고 있다”고 했다.

AI를 사용한 저질 논문이 잇따르면서 발표 후 철회되는 논문 수도 급증하고 있다. 네이처에 따르면 작년 세계 과학자들이 제출한 연구 논문 중 1만건 이상이 철회됐다. 2022년(5380건)의 2배, 2019년(2871건)의 4배에 달하는 수치다.

그래픽=이철원

◇네이처·사이언스, AI 표기 원칙

논문 작성에 AI를 활용하는 사례가 늘면서 학계에선 AI 관련 기준을 마련하는 것이 시급해졌다. 과학 저널의 양대 산맥인 네이처와 사이언스는 AI의 저자 자격을 인정하지 않고 있다. 네이처는 연구 방법 등 항목에 AI 도구를 사용했다는 점을 명시해야 한다고 정했다. 네이처는 “연구 방법의 투명성과 저자의 진실성이야말로 과학 발전의 기초”라고 했다. 사이언스는 “기계는 중요한 역할을 하지만, 가설을 세우고 실험을 설계하고 결과를 이해하는 사람들을 위한 도구일 뿐”이라며 비슷한 원칙을 내세웠다. 연구의 효율을 위해 통계 분석이나 자료 수집에 AI를 활용하는 것은 허용하지만, 이를 명시하고 그 결과물을 사람이 직접 확인해야 한다는 것이다.

이덕환 서강대 화학과 명예교수는 “AI는 창의성이 없지만, 화려하고 현란하게 글을 써주기 때문에 연구자 입장에서는 유혹에서 벗어나기 쉽지 않다”며 “AI가 잘못된 정보를 그대로 논문에 쓸 수도 있는 만큼, 과학계의 신뢰성에 타격을 줄 수 있다”고 했다.

Copyright © 조선일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?