AI로 '생존자 소리' 잡아낸다…"붕괴·화재 현장서 활용 전망"

김혜경 기자 2024. 3. 7. 16:18
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

정부가 구조현장에서 인공지능(AI)을 활용해 생존자의 소리를 판별하는 시스템 개발에 나섰다.

개발자인 이종훈 모아데이타 연구소장은 "AI를 활용해 생존자 목소리를 판별하는 시스템을 개발하는 것은 전 세계에서 처음"이라며 "성능 확인을 거쳐 현장에 도입된다며 구조대원들의 수색에 큰 도움이 될 것으로 본다"고 말했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

행안부, 구조현장에서 AI로 생존자 소리 판별하는 시스템 개발 나서
신축 아파트 붕괴사고를 계기로 지난해부터 개발에 착수, 올해 실증
"AI가 구조현장 잡음과 사람 소리 분별, 사람 위치까지 알려주는 방식"
[서울=뉴시스] 광주 서구 화정동 HDC현대산업개발 아이파크 아파트 신축공사현장 붕괴 사고 9일째인 지난 2022년 1월19일 소방대원들이 써치탭 및 열화상카메라를 활용해 실종자를 수색하고 있는 모습. (사진=소방청 제공) 2024.03.07. *재판매 및 DB 금지


[서울=뉴시스]김혜경 기자 = 정부가 구조현장에서 인공지능(AI)을 활용해 생존자의 소리를 판별하는 시스템 개발에 나섰다. 올해 9월 첫 실증 실험에 나설 예정으로, 성능 확인을 거쳐 일선 구조현장에서 활용될 전망이다.

7일 행정안전부에 따르면 행안부는 건물붕괴 및 화재 등 재난현장에서 생존자 수색이 원활히 이뤄질 수 있도록 지난해부터 AI를 활용해 생존자 소리를 탐지하는 시스템 개발에 나섰다.

행안부 관계자는 "지난 2022년 1월 광주에서 발생한 현대산업개발 아파트 신축공사 붕괴 사고 당시 생존자 구조에 어려움을 겪는 것을 계기로 지난해부터 시스템 개발을 추진하게 됐다"고 밝혔다.

당시 구조대원들은 건물 잔해물과 추가 붕괴 위험 등으로 붕괴현장에 접근하는 것조차 쉽지 않아 구조자 수색에 애를 먹은 바 있다.

시스템 개발을 맡은 업체는 인공지능 전문기업 모아데이타이다.

개발자인 이종훈 모아데이타 연구소장은 "AI를 활용해 생존자 목소리를 판별하는 시스템을 개발하는 것은 전 세계에서 처음"이라며 "성능 확인을 거쳐 현장에 도입된다며 구조대원들의 수색에 큰 도움이 될 것으로 본다"고 말했다.

이 소장에 따르면 '이상 음향·음성 탐지 시스템'으로 명명된 이 시스템은 센서와 패드 형식의 단말기로 구성돼 있다.

센서는 사람 주먹만한 크기로 무선 안테나, 마이크, 진동센서 등이 달려있다. 구조대원들이 센서를 장착하고 현장에 진입하면 센서가 재난현장의 여러 음원을 수집해 단말기에 전송한다.

단말기는 이 소리를 AI로 분석해 잡음과 사람의 소리를 구분해낸다. 사람 소리라면 그 위치가 어디인지 단말기 지도상에 좌표까지 찍어준다. 해당 정보는 구조대원들에게 전달되고, 이 정보를 토대로 생존자들을 찾아내는 방식이다.

이 소장은 화재현장에서 생존자 소리를 구분해내는 것은 쉽지 않다고 설명했다. 그는 "화재현장은 연기로 인해 구조대원들이 육안으로 사물을 판단하는 게 쉽지 않다"며 "또 구조대원들은 산소마스크를 쓰고 있어 호흡소리가 크게 들려 생존자들의 구조요청을 듣기 어려운 경우도 있다"고 말했다.

이어 "현재도 구조현장에서 주변 소리들을 측정할 수 있는 센서가 사용되고 있지만, 이 센서는 잡음과 사람 소리를 구분해 주지는 못한다"며 한계가 있다고 했다. 그러면서 "우리가 개발 중인 이 시스템은 AI가 잡음을 제거하고 구조에 필요한 생존자 음원만 추출해 분석하는 방식"이라고 했다.

또 "현재 사람 목소리는 물론 벽을 두드리거나 코 고는 소리, 신음소리 등 인간이 재난 상황에서 낼 수 있는 각종 소리를 AI에 학습시키고 있다"고 설명했다.

그러면서 "다만 재난상황에서 발생하는 소리 데이터가 많지 않기 때문에 지금 가지고 있는 데이터를 생성형 AI모델에 입력해 새로운 디지털 유형의 음원들의 만들어내는 작업을 할 예정"이라고 덧붙였다.

시스템 상용화 시기에 대해서는 "올해와 내년에 걸쳐 실증실험을 통해 성능을 확인·검증할 계획"이라며 "1년 정도 상품화 과정을 거쳐 2027년께 현장에 도입될 것으로 전망하고 있다"고 말했다.

☞공감언론 뉴시스 chkim@newsis.com

Copyright © 뉴시스. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?