인공지능 의사, 자칫 ‘돌팔이’로…WHO “의료분야 활용 땐 검증을”
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
세계보건기구(WHO)가 인공지능(AI)을 의료분야에 활용할 때, 엄격한 검증이 있어야 한다고 지적했다.
WHO는 "AI가 그럴듯한 답변을 만들 수는 있지만 답변에 심각한 오류가 있을 수 있다"며 "텍스트, 오디오 또는 비디오 등의 형태로 설득력 있는 허위정보를 생성하고 유포하는 데 악용될 수 있다"고 경고했다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
세계보건기구(WHO)가 인공지능(AI)을 의료분야에 활용할 때, 엄격한 검증이 있어야 한다고 지적했다. AI가 자칫 허위정보를 퍼뜨리는 ‘돌팔이 의사’로 돌변할 수 있어서다.
WHO는 16일(현지시간) 대규모언어모델(LLM)를 사용할 때 주의가 필요하다며 이같이 밝혔다.
LLM은 생성형 AI가 인간처럼 말할 수 있도록 하는 기술이다. 사전에 학습한 방대한 테이터를 토큰(단어, 문장부호 등) 단위로 잘라 패턴을 익혀 통계적으로 사용확률이 높은 단어를 골라 문장을 만들어내는 식으로 작동한다. 오픈AI의 ‘챗GPT(ChatGPT)’와 구글의 ‘바드(Bard)’ 등 AI챗봇의 기반기술이다.
특히 세계적으로 돌풍을 일으킨 챗GPT는 미국 의사면허시험(USMLE)을 통과하면서 의료계에도 파장을 불러 일으켰다. 심지어 챗GPT가 의사보다 더 낫다는 연구결과가 4일(현지시간) 발표되기도 했다. 미국 샌디에이고 캘리포니아대(UCSD) 퀄컴연구소 존 W. 에이어스 교수팀은 의료 전문가들을 상대로 의사와 챗GPT의 의료상담 능력을 평가하도록 했다. 그 결과, 의료 전문가 79%가 챗GPT의 손을 들어줬다.
그렇더라도 맹신은 금물이다. LLM은 통계적으로 자주 사용하는 단어들을 토대로 말을 만들어낼 뿐, 내용의 맥락을 이해하고 있지는 못하다. 편향되거나 잘못된 데이터를 학습한 경우엔 허위정보를 생성하고 유포할 수 있다.
WHO는 AI가 허위정보를 진짜처럼 얘기하는 ‘환각’ 현상을 우려했다. WHO는 “AI가 그럴듯한 답변을 만들 수는 있지만 답변에 심각한 오류가 있을 수 있다”며 “텍스트, 오디오 또는 비디오 등의 형태로 설득력 있는 허위정보를 생성하고 유포하는 데 악용될 수 있다”고 경고했다.
일반 대중들은 진위여부를 판별하기 어려운 잘못된 의료정보가 유포될 경우, 사회적으로 큰 혼란을 불러일으킬 수 있다. 자칫 사람들의 건강과 생명을 해치는 결과로 이어질 수 있다. WHO는 “전문가의 검증 없이 사용되는 LLM은 의료인의 오류를 낳고 환자에게 피해를 주며 결과적으로는 기술 전반에 대한 신뢰를 떨어뜨릴 수 있다”고 경고했다.
WHO는 의료인과 정책 당국이 일상적인 건강관리와 의약품 분야에서 LLM을 광범위하게 사용하기 전에 이 같은 우려사항을 해결해야 한다고 강조했다. 또 당사자의 동의 없이 제공된 의료 데이터가 AI 학습에 사용됐을 가능성을 제기하며 윤리 원칙이 준수되고 있는지 살펴볼 것을 주문했다.
Copyright © 농민신문. 무단전재 및 재배포 금지.