[기고] 금융분야 AI 정책 글로벌 동향과 과제

2023. 7. 4. 16:01
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

금융분야는 세계적으로 인공지능(AI) 기술이 신용평가, 챗봇 등 서비스에 가장 빠르게 적용되고 있는 산업 중 하나다.

건전성규제기구는 모형 위험 관리 정책과 별개로 영국 금융기관의 의견을 수렴, 금융분야 AI에 대한 정책을 발표할 예정이다.

앞서 해외 금융감독기구들이 금융기관과 소비자 등 이해관계자들로부터 AI 활용이 어떠한 위험을 발생할 수 있는지에 대해 조사하고, 그 내용을 사회적 논의를 위해 공개했다는 점을 생각해볼 필요가 있다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

마경태 법무법인 태평양 변호사

금융분야는 세계적으로 인공지능(AI) 기술이 신용평가, 챗봇 등 서비스에 가장 빠르게 적용되고 있는 산업 중 하나다. 이에 각국 정부는 새로운 기술 도입이 금융 시장과 소비자에게 가져올 위험에 대해 연구하고 대응 방안을 준비 중이다.

5월 영국 금융감독기구인 건전성규제기구(PRA)는 은행의 모형 위험 관리에 관한 새로운 정책을 발표했다. 정책은 은행이 의사 결정 및 위험 관리 업무에 활용하고 있는 각종 모형의 위험을 체계적으로 관리하기 위한 원칙을 규정하고 있다. 눈여겨볼 부분은 AI 기술을 적용한 모형에도 위험 관리 정책이 적용될 수 있도록 했다는 것이다. 이를 위해 건전성규제기구는 은행을 대상으로 AI 기반 모형의 위험을 관리하기 위해 유의해야 할 점들을 조사했다.

은행들은 AI 모형은 구조가 복잡하고 학습을 통해 변경되므로, 관련 부서 협력을 통한 전사 차원 관리와 상세한 모니터링 절차가 필요하다는 점을 강조했다. 그리고 AI 모형의 사용이 편향성 등 위험을 발생시킬 수 있으므로 보다 효과적인 관리·감독 방안이 요구된다는 점도 지적했다. 정책은 AI 기반 모형 위험 요소들을 위험 관리 원칙에 반영하고 있다. 특히 모형 구조가 복잡할수록 위험 관리 수준도 엄격해야 한다는 점을 강조했다. 건전성규제기구는 모형 위험 관리 정책과 별개로 영국 금융기관의 의견을 수렴, 금융분야 AI에 대한 정책을 발표할 예정이다.

미국 금융소비자보호국(CFPB)은 금융분야 AI 챗봇 활용에 대한 분석 보고서를 발표했다. 보고서는 접수된 실제 소비자 민원 내역을 토대로 챗봇 위험을 분석했다. 가령 챗봇이 소비자에게 도움이 되는 정보를 제공하지 못하고 인간 상담원 연결을 제공하지 못할 경우, 금융기관 신뢰에 악영향을 미칠 수 있다. 챗봇이 고객에게 금융상품에 대한 부정확한 정보를 제공할 경우에는 고객 이익을 침해할 뿐만 아니라 금융소비자보호 관련 법령 위반에도 해당할 수 있다. 금융소비자보호국은 보고서를 통해 금융소비자에게 챗봇 관련 민원 사항을 적극 제출하도록 안내하고 있다.

국내로 눈을 돌려보자. 우리나라는 금융분야 AI 거버넌스 구축에 적극적인 노력을 기울이고 있다. 금융위원회는 금융분야 AI 신뢰성 제고를 위해 '금융분야 AI 개발·활용 안내서'를 발표했다. 안내서는 신용평가, 챗봇, 로보어드바이저, 맞춤형 추천, 이상거래탐지 등 5대 서비스를 적용 대상으로 하고 있다.

다만, 금융기관들이 금융분야 AI 개발·활용 안내서를 원활하게 적용하기 위해서는 많은 과제가 남아 있다. 대표적으로 거버넌스 대상이 되는 AI 범위가 무엇인가다. AI의 위험을 자동화에서 보는 시각에서는 AI가 인간 역할을 대체하는 이상 복잡하지 않은 모델도 모두 AI로 보아 관리해야 한다고 볼 것이다. 반면, AI의 위험이 주로 대량의 데이터 활용과 모델의 불투명성에서 발생한다고 보는 시각에서는 복잡성이 높은 모델만 AI에 해당한다고 해석할 수 있다.

현재 AI 거버넌스 구축 어려움으로 지적되는 사항 상당수는 AI의 범위 문제와 같이 AI의 위험이 무엇이고 과연 위험을 관리할 필요성이 있는지 여부와 관련이 있다. 이는 금융기관이 단독으로 분석해 결론을 내리기 어려운 영역이다.

앞서 해외 금융감독기구들이 금융기관과 소비자 등 이해관계자들로부터 AI 활용이 어떠한 위험을 발생할 수 있는지에 대해 조사하고, 그 내용을 사회적 논의를 위해 공개했다는 점을 생각해볼 필요가 있다. AI의 위험 관리 방안을 준비하기 위해서는 왜 위험 관리가 필요한지에 대해서 이해관계자간 충분한 논의와 공감대 형성이 이루어져야 한다. 그래야 AI 위험 관리 방안의 완성도가 높아질 것이다.

마경태 법무법인 태평양 변호사 kyungtae.ma@bkl.co.kr

Copyright © 전자신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?