美 7살 아이 살린 챗GPT…의사도 진단 못한 병 맞혔다

이시내 2023. 9. 14. 07:00
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

의사를 17명이나 만났는데도 진단에 실패한 7살 소년의 병을 인공지능 챗봇 ‘챗GPT(ChatGPT)’가 맞혔다. 이미지투데이

의사를 17명이나 만났는데도 진단에 실패한 7살 소년의 병을 인공지능 챗봇 ‘챗GPT(ChatGPT)’가 맞혔다. 

11일(현지시각) 미국 NBC의 유명 아침뉴스 프로그램 ‘투데이’는 미국에 거주하는 코트니와 7살 아들 알렉스의 사연을 보도했다. 

알렉스가 이갈이를 비롯한 이상 증상을 보이던 때는 2020년이다. 처음엔 충치 때문이라고 생각했지만 시간이 지날수록 여러 증상이 나타났다. 극심한 피로감과 통증을 호소했으며 급기야는 왼쪽 다리를 질질 끌었다. 다리 길이가 다르게 자란 것이다. 코트니는 “알렉스가 매일 이부프로펜 계열의 해열진통제를 먹지 않으면 발작을 일으켰다”며 “다리 때문에 물리치료를 받기 시작한 뒤부턴 편두통까지 호소하기 시작했다”고 말했다. 

코트니는 아들의 정확한 병명을 알기 위해 3년간 전문의 17명을 찾았으나 결국 실패했다. 답답한 마음에 챗GPT에 가입했다. 챗GPT는 미국 인공지능 연구기업 ‘오픈AI’가 지난해 11월 공개한 대규모언어모델(LLM)이다. 미국 의사면허시험(USMLE)을 통과하면서 의료계에도 파장을 불러일으켰다. 심지어 챗GPT가 의사보다 더 낫다는 연구결과가 5월 발표되기도 했다.

코트니는 자기공명촬영(MRI) 결과를 포함한 모든 의료기록을 입력했다. 챗GPT가 내린 병명은 ‘지방 척수수막류(tethered cord syndrome)’였다. 

지방 척수수막류는 척수이형성증에 속하는 대표적인 질환이다. 엉덩이 윗부분에서 척추뼈가 완전히 붙지 않아 결손이 생긴 부위에 지방종이 뭉쳐 발생한 질환이다. 지방종이 척추의 신경관 안에 존재하면서 척수를 결박해 여러 증상을 초래한다. 선천성 질환으로 신생아기나 영아기 때 진단받는다. 하지만 알렉스 사례처럼 피부이상이 뚜렷하지 않은 경우엔 증상 발견이 늦어지기도 한다. 진단이 지연된 경우엔 소아 청소년기에 다리를 질질 끄는 등 거동이 불편해지거나, 배변에 문제가 생긴다. 성인기에 허리통증으로 생각하고 정형외과를 찾았다가 뒤늦게 진단을 받는 사례도 있다. 

알렉스 치료를 담당한 홀리 길머 미시간 두부·척추 연구소 소아 신경외과 전문의는 “해당 질환이 있는 상당수 어린이들의 허리에선 맨눈으로 확인할 수 있을 정도의 피부 함몰이 있는데 알렉스의 경우엔 그런 징후가 없었다”며 “어린아이의 경우 말을 할 수 없기 때문에 진단이 더 어렵다"고 했다. 

다행히 알렉스는 척추를 결박하는 지방종 제거 수술을 받고 회복 중이라고 매체는 전했다. 

앤드류 빔 하버드대학 전염병학 부교수는 “챗GPT는 광범위한 자료를 바탕으로 진단을 내리기 때문에 (인간 의사가 자기의 전공분야에 매몰되는  식의) 사각지대가 없다”며 “병명 진단에 어려움을 겪는 환자들을 도울 초강력 의료 검색엔진”이라고 설명했다.

세계보건기구(WHO)는 AI가 허위정보를 진짜처럼 얘기하는 ‘환각’ 현상에 빠질 수 있다고 지적했다. 사진은 챗GPT 로고. 위키미디어커먼스

그렇더라도 맹신은 금물이다. 챗GPT의 기반기술인 대규모언어모델은 사전에 학습한 방대한 자료를 토큰(단어, 문장부호 등) 단위로 잘라 패턴을 익혀 통계적으로 사용확률이 높은 단어를 골라 문장을 만들어 내는 식으로 작동한다. 편향되거나 잘못된 데이터를 학습한 경우엔 허위정보를 생성하고 유포할 수 있다. 

세계보건기구(WHO)는 AI가 허위정보를 진짜처럼 얘기하는 ‘환각’ 현상에 빠질 수 있다고 지적했다. 일반 대중들은 진위여부를 판별하기 어려운 잘못된 의료정보가 유포될 경우, 사회적으로 큰 혼란을 불러일으킬 수 있다. 자칫 사람들의 건강과 생명을 해치는 결과로 이어질 수 있다. WHO는 “전문가의 검증 없이 사용되는 LLM은 의료인의 오류를 낳고 환자에게 피해를 주며 결과적으로는 기술 전반에 대한 신뢰를 떨어뜨릴 수 있다”고 경고했다.

제시 에렌펠드 미국의사협회장은 "챗GPT는 환자 치료에 도움을 줄 수 있는 도구지만 오류가 없는 것은 아니다"라면서 "인공지능이 생성하는 부정확한 정보가 의사나 환자에게 해를 끼칠 수 있는 만큼 사용할 때 주의가 필요하다"고 당부했다.

Copyright © 농민신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?