WHO "생성형 AI, 의료분야 사용 땐 주의…허위정보 경계"

권해영 2023. 5. 17. 06:03
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

세계보건기구(WHO)가 의료 분야에 챗GPT를 비롯한 생성형 인공지능(AI)을 활용할 경우 허위정보가 제공될 수 있다고 경고했다.

WHO는 16일(현지시간) 성명을 통해 AI 기술인 거대언어모델(LLM) 사용 시 엄격한 검증과 주의가 필요하다고 밝혔다.

WHO는 "전문가의 검증 없이 사용되는 LLM은 의료인의 오류를 낳고 환자에게 피해를 준다"며 "결과적으로 AI 전반에 대한 신뢰를 떨어뜨려 이 기술의 잠재적 이점을 훼손할 수 있다"고 우려했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

세계보건기구(WHO)가 의료 분야에 챗GPT를 비롯한 생성형 인공지능(AI)을 활용할 경우 허위정보가 제공될 수 있다고 경고했다.

WHO는 16일(현지시간) 성명을 통해 AI 기술인 거대언어모델(LLM) 사용 시 엄격한 검증과 주의가 필요하다고 밝혔다.

LLM은 거대한 데이터에서 얻은 지식을 기반으로 복잡한 정보를 처리·분석·예측해 인간이 쓰는 자연어로 응답할 수 있도록 한다. 챗GPT, 구글 바드 등 생성형 AI의 기반이 되는 기술이다.

WHO는 "전문가의 검증 없이 사용되는 LLM은 의료인의 오류를 낳고 환자에게 피해를 준다"며 "결과적으로 AI 전반에 대한 신뢰를 떨어뜨려 이 기술의 잠재적 이점을 훼손할 수 있다"고 우려했다. 이어 "의료 분야에서 AI 훈련시 사용된 데이터는 편향돼 있어 부정확하거나 오해 소지가 있는 정보를 생성할 수 있다"면서 "실제 콘텐츠와 구별하기 어려운 콘텐츠로 허위 정보를 생성·유포하는 데 오용될 수 있는 셈"이라고 설명했다.

일상적인 건강 관리, 의약품 등 의료 분야에서 LLM을 폭넓게 사용하기에 앞서 정책당국과 의료계가 이 같은 우려 사항을 해결해야 한다고 WHO는 강조했다. 의료 분야에서 LLM이 순기능을 발휘할 수 있지만, 반드시 엄격한 검증과 감독을 거쳐야 한다는 것이다.

아울러 WHO는 보건 분야에 활용될 AI에 의료 윤리 원칙이 지켜지는지도 살펴야 한다고 설명했다. 그러면서 인간의 복지·안전·공익, 투명한 설명 가능성 및 명료성, 자율성 보호, 책임성, 포용성과 형평성, 응답성이 뛰어나고 지속 가능한 AI 등을 원칙으로 제시했다.

권해영 기자 roguehy@asiae.co.kr

Copyright © 아시아경제. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?