"개인정보 유출 막아라"…금융분야 AI 보안지침 마련
[앵커]
챗GPT 등장을 계기로 금융권에서도 인공지능 서비스 개발이 속도를 내고 있습니다.
AI 은행원뿐만 아니라 AI 기반 신용평가모형 등 다양한 분야에서 활용되고 있는데, 다만 개인정보 유출 등 다양한 보안 위협이 발생할 우려가 있어 금융당국이 보안 지침을 마련했습니다.
김동욱 기자입니다.
[기자]
은행 디지털 상담 창구에 앉자 은행 직원의 얼굴을 본따 만든 인공지능, AI 행원이 업무를 도와줍니다.
<현장음> "어떤 업무를 도와드릴까요? 편하게 말씀해보세요."
금융권에서의 AI 활용은 고객 상담뿐 아니라 신용평가 등으로 활용 분야가 확대되고 있습니다.
하지만 AI는 아직 개인정보 유출 등 다양한 보안 문제를 안고 있습니다.
AI 챗봇 '이루다'는 재작년 실명과 계좌번호, 주소 등 개인정보를 유출했고, 한 정신과 챗봇은 출시 전 모의 환자에게 자살을 권유하는 일도 있었습니다.
특히 금융분야는 사고 발생 시 직접적인 금전적 피해로 이어지는 만큼 보안의 중요성이 큰 상황입니다.
이에 금융당국은 개발 단계에서부터 활용하도록 금융분야 AI 보안 가이드라인을 마련했습니다.
여기에는 수집된 데이터를 적절히 가공하는 등 오염된 데이터를 통해 AI가 학습하지 않도록 하는 내용과 개인정보 유출 등 적대적 공격을 방지하도록 AI 모델을 구성하는 내용이 담겼습니다.
<김병칠 / 금감원 부원장보> "금융분야 AI 안내서 활용실태와 AI 리스크 관리를 위한 금융회사의 내부통제 현황 등을 점검해 AI 활용을 확대할 수 있는 기반 조성에 노력하겠습니다."
금융당국은 AI가 활발하게 사용되는 분야인 '챗봇서비스'에 대해서는 별도로 '보안성 체크리스트'를 마련해 서비스 개발 시 활용하도록 했습니다.
연합뉴스TV 김동욱입니다. (dk1@yna.co.kr)
#금융 #인공지능 #AI #개인정보 #금융위 #금감원
연합뉴스TV 기사문의 및 제보 : 카톡/라인 jebo23
(끝)
네이버에서 연합뉴스TV를 구독하세요
연합뉴스TV 생방송 만나보기
균형있는 뉴스, 연합뉴스TV 앱 다운받기
Copyright © 연합뉴스TV. 무단전재 및 재배포 금지.