챗GPT에 식단 조언 구했다가 정신병…무슨 일?

이정현 미디어연구소 2025. 8. 12. 16:30
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

최근 인공지능(AI) 기술이 의료 분야에서 큰 역할을 하고 있는 가운데 건강 문제로 챗GPT에 식단 조언을 구했다가 정신질환을 얻는 남성의 사연이 알려지며 주목을 끌고 있다고 디지털트렌드 등 외신들이 11일(현지시간) 보도했다.

최근 미국내과학연보(Annals of Internal Medicine)는 건강 문제로 챗GPT에 조언을 구한 후 브롬중독으로 정신 질환을 얻은 60세 남성의 사례를 보고서에 실었다.

음성재생 설정 이동 통신망에서 음성 재생 시 데이터 요금이 발생할 수 있습니다. 글자 수 10,000자 초과 시 일부만 음성으로 제공합니다.
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

(지디넷코리아=이정현 미디어연구소)최근 인공지능(AI) 기술이 의료 분야에서 큰 역할을 하고 있는 가운데 건강 문제로 챗GPT에 식단 조언을 구했다가 정신질환을 얻는 남성의 사연이 알려지며 주목을 끌고 있다고 디지털트렌드 등 외신들이 11일(현지시간) 보도했다.

최근 미국내과학연보(Annals of Internal Medicine)는 건강 문제로 챗GPT에 조언을 구한 후 브롬중독으로 정신 질환을 얻은 60세 남성의 사례를 보고서에 실었다.

챗GPT에 건강 조언을 구했다 정신병원에 간 남성의 사연이 공개돼 화제가 되고 있다. (사진=챗GPT로 생성)

60세인 이 남성은 소금 과다섭취에 대한 부정적인 정보를 얻자 “음식에 소금 대신 무엇을 넣을 수 있는가”라고 챗GPT에 질문했다. 이에 챗GPT는 소금의 대안으로 ‘브롬화 나트륨(sodium bromide)’을 제시했다. 이후, 이 남성은 온라인에서 구매한 브롬화나트륨을 섭취했다.

문제는 브롬화 나트륨이 소금을 대체할 수 있는 식용 물질이 아니란 점이다. 브롬호 나트륨은 수면제와 신경안정제, 진정제 등 의약품을 비롯해 살균제 등에 사용되는 물질로 독성이 들어 있다.

보고서를 작성한 미국 워싱턴대 연구진은 챗GPT가 언급한 브롬화나트륨의 소금 대체용도가 식단이 아닌 세척에 사용하는 것을 언급했을 가능성이 있다고 지적했다.

3개월 간 소금 대신 브롬화나트륨을 섭취한 이 남성은 이웃이 자신을 독살하고 있다는 망상에 사로잡혀 병원에 실려갔다. 보고서에 따르면, "입원 후 남성은 처음 24시간 동안 그는 점점 심해지는 편집증과 청각 및 시각 환각 증상을 보였고, 탈출을 시도한 후 심각한 장애로 인해 비자발적인 정신과적 치료를 받았다"고 덧붙였다. 다행히 그는 3주간의 치료를 받은 후 퇴원했다.

챗GPT 사용으로 인해 인체의 건강이 악화된 케이스는 극히 드물어 주목된다고 외신들은 전했다. 한 연구 논문에 따르면, 현재 브롬중독은 아주 드물며 거의 잊혀진 상태다. 

브롬 기반 나트륨의 사용은 19세기로 거슬러 올라가는데, 당시에는 정신 및 신경 질환, 특히 간질 치료에 권장됐으나 이후 브롬화 나트륨을 섭취하면 망상, 근육 조절 장애, 피로와 같은 신경계 문제가 발생하며 심각한 경우 정신병, 떨림, 심지어 혼수상태까지 나타날 수 있다는 것이 밝혀져 1975년 미국 정부는 일반 의약품에 사용을 제한했다.

이 사례를 담당한 의료진은 이 남성의 챗GPT 대화에는 접근할 수 없었지만, 테스트를 통해 우려스러울 정도로 오해의 소지가 있는 답변을 얻을 수 있었다고 밝혔다. 연구진도 챗GPT 3.5에 염화물을 어떤 물질로 대체할 수 있는지 물어보자 브롬화물이 포함된 답변을 받았다.

연구진은 "챗GPT의 답변에는 맥락이 중요하다고 언급돼 있지만, 구체적인 건강 경고를 제공하지도 않았고 이 질문을 왜 하는 지에 대한 구체적인 질문도 하지 않았다"고 밝혔다.

해당 문제에 대해 오픈AI는 "당사 서비스에서 제공되는 결과물을 유일한 진실 또는 사실 정보의 원천으로 의존해서는 안 되며, 전문가의 조언을 대체할 수 있는 자료로도 사용해서는 안 된다"며, “오픈AI의 안전 팀은 서비스 사용 시 발생하는 위험을 줄이고 사용자가 전문가의 조언을 구하도록 제품을 교육하는 것을 목표로 하고 있다”는 입장을 밝혔다.

이정현 미디어연구소(jh7253@zdnet.co.kr)

Copyright © 지디넷코리아. 무단전재 및 재배포 금지.