"보건의료 분야 챗GPT 활용 땐 '환각 효과' 조심해야"

김병규 2023. 8. 17. 12:02
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

질병관리청 국립보건연구원은 보건의료 분야 연구자를 위한 '보건의료 분야 인공지능(AI) 윤리연구 지침'을 17일 발간했다.

지침은 AI 연구 과정에서 발생할 수 있는 윤리적 질문에 대한 원칙으로 ▲ 인간의 자율성 존중과 보호 ▲ 인간의 행복, 안전, 공공의 이익 증진 ▲ 투명성, 설명 가능성, 신뢰성 ▲ 책무, 법적책임 ▲ 포괄성, 공정성 ▲ 대응성, 지속 가능성 등 6가지를 제시했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

국립보건연구원, 보건의료 분야 인공지능 연구윤리 지침 발간
국립보건연구원 [연합뉴스TV 제공]

(서울=연합뉴스) 김병규 기자 = 질병관리청 국립보건연구원은 보건의료 분야 연구자를 위한 '보건의료 분야 인공지능(AI) 윤리연구 지침'을 17일 발간했다.

연구자들이 책임있는 AI 연구를 할 수 있도록 연구 설계부터 데이터 생성, 모델 개발, 검증·평가, 적용 및 사후 점검 등 전 과정에 대한 윤리적 기준을 소개했다.

지침은 AI 연구 과정에서 발생할 수 있는 윤리적 질문에 대한 원칙으로 ▲ 인간의 자율성 존중과 보호 ▲ 인간의 행복, 안전, 공공의 이익 증진 ▲ 투명성, 설명 가능성, 신뢰성 ▲ 책무, 법적책임 ▲ 포괄성, 공정성 ▲ 대응성, 지속 가능성 등 6가지를 제시했다.

아울러 응급상황에서의 AI 활용과 동의, 의료 AI의 질과 안전성, 챗봇의 환각 효과, AI와 인종 편향, AI 기술이 가져올 의료인 고용환경 변화 등을 구체적 사례를 함께 설명했다.

구체적으로 챗(chat)GPT 등 초거대 언어모형에 기반을 둔 챗봇이 잘못된 정보를 그럴듯하게 제시해 사람들을 속아 넘어가게 하는 '환각(hallucination) 효과'를 일으킬 수 있다며 챗봇을 보건의료 영역에서 활용하기 위해서는 투명성과 설명가능성을 확보해야 한다고 강조했다.

법·윤리, 의료AI, 보건의료정보 분야 전문가가 작성에 참여했으며 공청회를 통해 의견 수렴 과정을 거쳤다. 질병청 등은 올해 하반기 지침에 기반한 윤리 교육 프로그램을 운영할 계획이다.

bkkim@yna.co.kr

▶제보는 카톡 okjebo

Copyright © 연합뉴스. 무단전재 -재배포, AI 학습 및 활용 금지

이 기사에 대해 어떻게 생각하시나요?