인공지능 의사, 자칫 ‘돌팔이’로…WHO “의료분야 활용 땐 검증을”

이시내 2023. 5. 17. 14:15
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

세계보건기구(WHO)가 인공지능(AI)을 의료분야에 활용할 때, 엄격한 검증이 있어야 한다고 지적했다.

WHO는 "AI가 그럴듯한 답변을 만들 수는 있지만 답변에 심각한 오류가 있을 수 있다"며 "텍스트, 오디오 또는 비디오 등의 형태로 설득력 있는 허위정보를 생성하고 유포하는 데 악용될 수 있다"고 경고했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

세계보건기구(WHO)가 인공지능(AI)을 의료분야에 활용할 때, 엄격한 검증이 있어야 한다고 지적했다. AI가 자칫 허위정보를 퍼뜨리는 ‘돌팔이 의사’로 돌변할 수 있어서다. 이미지투데이

세계보건기구(WHO)가 인공지능(AI)을 의료분야에 활용할 때, 엄격한 검증이 있어야 한다고 지적했다. AI가 자칫 허위정보를 퍼뜨리는 ‘돌팔이 의사’로 돌변할 수 있어서다. 

WHO는 16일(현지시간) 대규모언어모델(LLM)를 사용할 때 주의가 필요하다며 이같이 밝혔다.

LLM은 생성형 AI가 인간처럼 말할 수 있도록 하는 기술이다. 사전에 학습한 방대한 테이터를 토큰(단어, 문장부호 등) 단위로 잘라 패턴을 익혀 통계적으로 사용확률이 높은 단어를 골라 문장을 만들어내는 식으로 작동한다. 오픈AI의 ‘챗GPT(ChatGPT)’와 구글의 ‘바드(Bard)’ 등 AI챗봇의 기반기술이다. 

특히 세계적으로 돌풍을 일으킨 챗GPT는 미국 의사면허시험(USMLE)을 통과하면서 의료계에도 파장을 불러 일으켰다. 심지어 챗GPT가 의사보다 더 낫다는 연구결과가 4일(현지시간) 발표되기도 했다. 미국 샌디에이고 캘리포니아대(UCSD) 퀄컴연구소 존 W. 에이어스 교수팀은 의료 전문가들을 상대로 의사와 챗GPT의 의료상담 능력을 평가하도록 했다. 그 결과, 의료 전문가 79%가 챗GPT의 손을 들어줬다.

그렇더라도 맹신은 금물이다. LLM은 통계적으로 자주 사용하는 단어들을 토대로 말을 만들어낼 뿐, 내용의 맥락을 이해하고 있지는 못하다. 편향되거나 잘못된 데이터를 학습한 경우엔 허위정보를 생성하고 유포할 수 있다. 

WHO는 AI가 허위정보를 진짜처럼 얘기하는 ‘환각’ 현상을 우려했다. WHO는 “AI가 그럴듯한 답변을 만들 수는 있지만 답변에 심각한 오류가 있을 수 있다”며 “텍스트, 오디오 또는 비디오 등의 형태로 설득력 있는 허위정보를 생성하고 유포하는 데 악용될 수 있다”고 경고했다. 

일반 대중들은 진위여부를 판별하기 어려운 잘못된 의료정보가 유포될 경우, 사회적으로 큰 혼란을 불러일으킬 수 있다. 자칫 사람들의 건강과 생명을 해치는 결과로 이어질 수 있다. WHO는 “전문가의 검증 없이 사용되는 LLM은 의료인의 오류를 낳고 환자에게 피해를 주며 결과적으로는 기술 전반에 대한 신뢰를 떨어뜨릴 수 있다”고 경고했다. 

WHO는 의료인과 정책 당국이 일상적인 건강관리와 의약품 분야에서 LLM을 광범위하게 사용하기 전에 이 같은 우려사항을 해결해야 한다고 강조했다. 또 당사자의 동의 없이 제공된 의료 데이터가 AI 학습에 사용됐을 가능성을 제기하며 윤리 원칙이 준수되고 있는지 살펴볼 것을 주문했다. 

Copyright © 농민신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?