KAIST, 인공지능 음향 탐지 기술 국제대회서 우승

박주영 2025. 7. 11. 09:17
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

한국과학기술원(KAIST)은 전기·전자기술자협회(IEEE)가 주관하는 '음향 장면·이벤트 탐지와 분류 경진대회'(DCASE·Detection and Classification of Acoustic Scene and Events 2025)의 '공간 의미 기반 음향 장면 분할'(Spatial Semantic Segmentation of Sound Scenes) 분야에서 우승했다고 11일 밝혔다.

전기·전자공학부 최정우 교수 연구팀이 참가한 공간 의미 기반 음향 장면 분할 분야는 여러 음원이 혼합된 다채널 신호의 공간 정보를 분석해 개별 소리를 분리하고, 18종으로 분류해야 하는 기술적으로 어려운 분야이다.

음성재생 설정 이동 통신망에서 음성 재생 시 데이터 요금이 발생할 수 있습니다. 글자 수 10,000자 초과 시 일부만 음성으로 제공합니다.
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

음향탐지 기술 국제대회 우승한 KAIST 연구팀 왼쪽부터 권영후 석박사통합과정, 김도환 석사과정, 최정우 교수, 이동헌 박사

(대전=연합뉴스) 박주영 기자 = 한국과학기술원(KAIST)은 전기·전자기술자협회(IEEE)가 주관하는 '음향 장면·이벤트 탐지와 분류 경진대회'(DCASE·Detection and Classification of Acoustic Scene and Events 2025)의 '공간 의미 기반 음향 장면 분할'(Spatial Semantic Segmentation of Sound Scenes) 분야에서 우승했다고 11일 밝혔다.

6개 분야에 전 세계 86개 참가팀이 참여해 인공지능(AI)을 이용해 음향을 조기에 탐지하고 음원 별로 분리하는 기술을 겨뤘다.

전기·전자공학부 최정우 교수 연구팀이 참가한 공간 의미 기반 음향 장면 분할 분야는 여러 음원이 혼합된 다채널 신호의 공간 정보를 분석해 개별 소리를 분리하고, 18종으로 분류해야 하는 기술적으로 어려운 분야이다.

여러 소리가 혼합된 장면 사례 [KAIST 제공. 재판매 및 DB 금지]

연구팀의 이동헌 박사는 올해 초 세계 최고 성능의 음원 분리 인공지능을 개발, 챌린지 기간 1차로 분리된 음원의 파형과 종류를 단서로 다시 음원 분리와 분류를 수행하는 '단계적 추론 방식'의 AI 모델을 완성했다.

AI가 소리를 얼마나 잘 분리하고 분류했는지 평가하는 '음원의 신호대 왜곡비 향상도'(기존 오디오와 비교해 얼마나 더 선명하게 원하는 소리를 분리했는지를 dB 단위로 측정하는 기준. 숫자가 클수록 더 정확하고 깔끔하게 소리를 분리했다는 뜻)에서 참가팀 중 유일하게 두 자릿수 대의 성능(11dB)을 보였다.

최정우 교수는 "연구팀은 최근 3년간 세계 최고의 음향 분리 AI 모델을 선보여 왔으며, 그 결과를 공식적으로 인정받는 계기가 돼 기쁘다"면서 "난이도가 대폭 향상되고, 타 학회 일정과 기말고사로 시간이 없었음에도 첫 출전에서 1위를 차지한 팀원들이 자랑스럽다"고 소감을 밝혔다.

jyoung@yna.co.kr

▶제보는 카톡 okjebo

Copyright © 연합뉴스. 무단전재 -재배포, AI 학습 및 활용 금지