"AI 분석 어떻게 믿냐고 물으면? 기업들이 결과 설명할 수 있어야"

이용익 2021. 2. 23. 17:21
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

세스 도브린 IBM 부사장
"기업이 '신뢰할 수 있는 인공지능(Trusted AI)'을 운용하려면 어떻게 해야 할까요? AI에 편견이 있지 않은지, 무엇을 하고 있는지 이해하고 어떻게 결과를 도출하는지까지 지속적인 모니터링이 필요합니다."

IBM의 AI 전략 부문 최고 데이터 책임자를 맡고 있는 세스 도브린 IBM 부사장은 23일 '신뢰할 수 있는 AI'를 주제로 열린 온라인 간담회에서 기업이 AI가 내린 결정 사항을 설명할 수 있어야 한다고 말했다.

최근 AI가 빠르게 고도화되면서 각 분야에서 AI 도입이 빠르게 늘어나다 보니 그에 따른 염려도 커지고 있어 만들어진 자리였다. 실제로 국내에서는 AI 챗봇 이루다가 윤리 논란에 휘말렸고, 다른 기업도 AI를 잘못 썼다가 낭패를 볼 수 있다는 걱정을 하고 있다.

도브린 부사장은 "신뢰할 수 있는 AI란 '투명하게 검증할 수 있느냐' 하는 의미"라며 "기업들이 AI 모델을 알고(know), 신뢰하고(trust), 사용(use)할 수 있어야 한다"고 말했다. AI가 결과 도출에 어떤 데이터를 사용했는지 추적할 수 있고 변화를 문서로 관리할 수 있어야 AI 모델을 제대로 아는 것이고, AI 모델을 검증하기 위한 규칙들을 자동화된 방식으로 집행할 수 있어야 신뢰성이 구축된다.

IBM이 이런 기준을 참고해 AI를 활용한 사례로는 작년에 IBM이 서울시와 함께 구축한 시민 의견 수렴 챗봇인 'I care you' 서비스가 언급됐다. IBM은 이 챗봇에 대화형 AI 플랫폼 기술 '왓슨 어시스턴트'를 적용했다. 도브린 부사장은 "코로나19와 관련된 데이터는 믿을 수 있는지가 중요한데 시민들이 언제든지 확인 가능하도록 자주 묻는 질문에 자동화 기술을 적용했고, AI 편향 검증 기술인 '오픈스케일'도 사용돼 챗봇 답변에 대한 배경을 이해할 수 있도록 했다"고 말했다.

도브린 부사장은 "비즈니스에서 AI는 사람의 결정을 예측하고 보완하는 역할"이라며 "AI가 예측한 결과를 사람이 믿을 수 있어야 더 나은 결과도 나온다. IBM은 고객을 위한 고유 AI를 제공하지만 오픈소스로 제공하는 것도 필요하다"고 말했다.

[이용익 기자]

[ⓒ 매일경제 & mk.co.kr, 무단전재 및 재배포 금지]

Copyright © 매일경제 & mk.co.kr. 무단 전재, 재배포 및 AI학습 이용 금지

이 기사에 대해 어떻게 생각하시나요?