DGIST·스탠퍼드 공동연구, 연합학습 기반 새로운 의료 AI모델 개발

신체 장기 정확한 영역화 가능
공유 임베딩 학습으로 추론 단축
의료영상 분석 큰 도움 기대
DGIST 로봇및기계전자공학과 박상현 교수팀이 서버에서 의료영상 분석 중인AI 모델을 확인하고 있다.

대구경북과학기술원(DGIST)은 6일 로봇 및 기계 전자공학과 박상현 교수팀이 스탠퍼드 대학 교수팀과 공동연구로 여러 의료기관에 분산된 의료영상 데이터를 효과적으로 학습해 신체 장기들을 정확하게 영역화할 수 있는 기술을 개발했다고 밝혔다.

이 기술 개발로 향후 대규모 의료 인공지능(AI) 모델 개발에 크게 기여할 것으로 기대된다.

병원 등 의료기관은 다양한 목적으로 신체 각 부위의 장기 영상 데이터를 보유하고 있지만, 원활하고 정확한 의료행위를 위해 개별 기관에서 갖고 있지 못한 각 의료 데이터를 활용해 다중 장기 영역화를 위한 인공지능 모델 개발이 필요한 실정이다.

이에 따라 연구팀은 서로 다른 장기의 파일의 레이블(관리나 처리의 편의를 위하여 파일에 붙이는 특별한 항목 표시 기록) 가지는 분산 데이터를 유출 없이 효과적으로 활용하기 위해 연합학습을 기반으로 한 다중 정기 영역화 모델을 제안했다.

연합학습을 활용할 경우, 분산된 데이터를 직접 공유 없이 상호 간 협력으로 AI모델을 학습할 수 있다.

다만, 이 과정에 정보의 손실로 ‘망각화 현상’(Catastrophic Forgetting) 문제가 발생하며, 서로 다른 관심 영역에 대한 레이블을 가진 데이터들로 인해 학습이 불안정해지면서 모델이 구축되지 않거나, 학습 속도가 느려진다.

연구팀은 이를 해결하기 위해 지식 종류(Knowledge Distillation) 기법을 제안했다.

먼저, 다중 헤드 U-Net 모델을 활용해 각 기관의 서로 다른 각 신체 장기 영상 데이터를 영역화하고, 공유 임베딩 학습으로 영역화된 영상을 공유하면서, 각 기관에서 AI 모델 학습 시 글로벌 모델과 사전 훈련된 특정 장기 영역화 모델의 지식을 함께 활용해 연합학습을 수행하도록 했다.

그 결과 기존에 제안된 모델보다 적은 파라미터 및 연산량을 활용하면서 성능은 더 우수한 새로운 기술을 개발했다.

연구팀은 개발한 기술의 검증을 위해 7개의 서로 다른 영역과 레이블을 가진 복구 CT 데이터셋에 적용했다.

그 결과, 기존의 다중 장기 영역화 기법 모델이 연합학습에서 평균 66.82% 이하의 성능을 기록한 것에 비해, 새로 개발한 기법은 평균 71.00%의 높은 성능을 기록했고, 공유 임베딩 학습으로 추론 시간도 단축됐다.

이번 연구 결과는 우수성을 인정받아 의료 인공지능 분야 최상위 학술지인 ‘Medical Image Analysis (MedIA)’에 게재됐다.

박상현 교수는 “새로 개발한 기술이 의료영상 분석에 큰 도움이 될 것”이라며 “향후 대규모 의료인공지능 모델 개발에도 기여할 것으로 기대한다”고 말했다. 김종현기자 oplm@idaegu.co.kr

#대구 #경북