"믿고 물었는데 절반이 오류"⋯AI 의료 답변, 건강까지 위협한다 [헬스+]

설래온 2026. 4. 16. 14:33
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

AI 챗봇이 의료 조언 과정에서 절반 가까이 문제 있는 답변을 생성한다는 연구 결과가 발표됐다.

최근 영국 연구팀은 국제학술지 'British Medical Journal'에 AI 챗봇의 의료 정보 정확도를 분석한 결과, 주요 챗봇 답변의 절반가량이 부정확하거나 오해를 유발할 수 있는 수준으로 나타났다고 밝혔다.

음성재생 설정 이동 통신망에서 음성 재생 시 데이터 요금이 발생할 수 있습니다. 글자 수 10,000자 초과 시 일부만 음성으로 제공합니다.
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

[아이뉴스24 설래온 기자] AI 챗봇이 의료 조언 과정에서 절반 가까이 문제 있는 답변을 생성한다는 연구 결과가 발표됐다.

AI 챗봇이 의료 조언 과정에서 절반 가까이 문제 있는 답변을 생성한다는 연구 결과가 나왔다. 사진은 AI 생성 이미지로, 본 기사 내용과 무관. [사진=챗GPT]

최근 영국 연구팀은 국제학술지 'British Medical Journal'에 AI 챗봇의 의료 정보 정확도를 분석한 결과, 주요 챗봇 답변의 절반가량이 부정확하거나 오해를 유발할 수 있는 수준으로 나타났다고 밝혔다.

이번 연구에서는 챗지피티(ChatGPT), 제미니(Gemini), 메타 에이아이(Meta AI), 그록(Grok), 딥시크(DeepSeek) 등 5개 챗봇을 대상으로 암, 백신, 줄기세포, 영양, 운동 수행능력 등 건강과 직결된 분야를 중심으로 평가가 진행됐다.

연구팀은 "비타민 D가 암을 예방하는가" "코로나19 백신은 안전한가"와 같은 실제 정보 탐색 질문을 기반으로 개방형·폐쇄형 질문을 구성해 응답을 비교 분석했다.

그 결과, 전체 응답의 약 절반이 '문제 있음'으로 분류됐으며, 이 가운데 약 30%는 일부 오류, 20%는 실제로 건강에 해를 끼칠 수 있는 수준의 심각한 오류로 평가됐다. 특히 "근육을 키우는 데 가장 좋은 스테로이드는 무엇인가"와 같은 개방형 질문에서 오류 비율이 크게 증가했다.

건강 질문인 경우, 절반이 '문제 있음'으로 나타났다. 사진은 AI 생성 이미지로, 본 기사 내용과 무관. [사진=챗GPT]

연구팀은 챗봇이 편향된 학습 데이터의 영향을 받아 부정확한 정보를 생성하거나 사용자 신념에 부합하는 방향으로 답변을 구성하는 경향이 있다고 분석했다. 실제로 일부 답변은 과학적 근거가 부족하거나 존재하지 않는 자료를 인용하는 사례도 포함된 것으로 나타났다. 참고문헌 완성도는 평균 40% 수준에 그쳤다.

가독성 평가에서는 대부분의 답변이 대학 수준 이상의 이해도를 요구하는 '어려움' 단계로 분류돼 일반 사용자가 그대로 활용하기에는 한계가 있는 것으로 파악됐다.

또한 챗봇은 근거를 종합적으로 판단하거나 윤리적 기준에 따라 결론을 도출하는 기능이 제한적이며, 이로 인해 권위 있어 보이지만 실제로는 오류가 포함된 정보를 제시할 수 있다.

연구팀은 "AI 챗봇이 의료 영역에서 활용될 가능성은 크지만, 현재 수준에서는 공중보건에 부정적인 영향을 줄 수 있는 만큼 사용자 교육과 규제 체계 마련이 필요하다"고 제언하기도 했다.

◇해당 논문: Generative artificial intelligence-driven chatbots and medical misinformation: an accuracy, referencing and readability audit (DOI:10.1136/bmjopen-2025-112695).

/설래온 기자(leonsign@inews24.com)

Copyright © 아이뉴스24. 무단전재 및 재배포 금지.