[김정호의 AI시대의 전략] 의료·국방·금융… 차근차근 설명해주는 ‘믿음직한 인공지능’이 뜬다

김정호 KAIST 전기·전자공학과 교수 2023. 1. 11. 03:02
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

이 기사는 언론사에 의해 수정되어 본문과 댓글 내용이 다를 수 있습니다.

인간이 신뢰할 수 있도록 쉽게 설명해 주는 XAI 개발 본격화
환자에겐 상세히 처방해 주고, 의료영상 판독·임상보고서도 작성
미 국방부, 무인기·미사일·핵무기 분야 XAI에 맡기는 연구 착수

1970년대 말 고등학교 이과반 ‘수학II’ 수업에서 초월함수(Transcendental Function)라고 불리는 삼각함수, 지수함수와 로그함수에 대해서 배웠다. 초월함수는 함수의 근을 다항식으로 나타낼 수 없는 특수 함수들이다. 수업에서는 이들 함수의 정의, 원리와 의미를 배우고, 그래프로 표시할 수 있었으며, 응용 연습 문제로 미분을 통해서 최소값 혹은 최대값을 구하고, 적분을 이용해서 면적과 체적도 구했다. 청계천 고서점에서 구한 오래된 ‘해법수학’ 책에서 나오는 어려운 문제들을 골라 푸는 재미가 상당했다. 그래서 공학을 전공으로 선택했다. 그리고 대학에서 벡터와 행렬을 배우는 선형대수와 확률 수학이 더해진다.

40년이 지나 이들 함수들이 모여 인공지능 알고리즘의 기초가 된다. 하지만 모순되게도 인공지능의 ‘학습과 판단의 결과’ 자체는 인간의 수학과 언어로 설명하기는 매우 어렵다. 인공지능이 학습을 마치고 나면 그 결과는 인공지능망의 변수(Parameter)값으로 기록된다. 이들은 디지털 숫자의 묶음이다. 인간의 사고로는 그 숫자의 해석이 거의 불가능하다. 초월함수 미적분으로도 해석하기 어렵다. 마치 외계인 언어나 암호 같아 보인다. 그래서 인공지능망을 ‘블랙박스(Black Box)’라고 부르기도 한다. 검은색은 빛을 흡수하지만 반사가 없다. 그래서 반사를 통해서 사물을 보는 인간의 눈으로 바로 해석되지 않는다. 이제 인공지능이 스스로 발광(發光)하면서 인간에게 설명(說明)해야 한다.

/그래픽=양진경
/그래픽=양진경

인간이 인공지능을 믿고 적극적으로 활용하기 위해서는 인간과 인공지능 사이에 신뢰(信賴)가 필요하다. 신뢰는 타인의 미래 행동이 자신에게 호의적이거나 최소한 악의적이지 않을 가능성에 대한 기대와 믿음이다. 신뢰는 사회적 관계를 전제로 하며, 감시와 통제 비용을 줄일 수 있는 사회적 자본이다. 인간이 인공지능에게도 똑같이 요구하는 조건이다. 이처럼 믿을 수 있는 인공지능을 신뢰 가능 인공지능(Trustable AI)이라고 부른다. 신뢰 가능 인공지능은 결정 과정이 투명하고, 공정하며, 그리고 그 결과가 윤리적이어야 한다. 그리고 생명을 존중하고 개인의 가치를 보호해야 한다. 이를 위해서는 인공지능이 자신의 판단과 결정 과정의 근거를 인간에게 적극적으로 설명해야 한다. 이렇게 설명이 가능한 인공지능을 ‘XAI(Explainable AI)’라고 부른다. 이를 위해서는 학습용 데이터 선택 자체가 설명 가능해야 하고, 판단과 결정 근거를 인간에게 설명 가능해야 하며, 알고리즘 자체도 설명 가능해야 한다. 이제 설명의 의무가 인공지능에게 주어졌다. 그래야 인간이 믿을 수 있기 때문이다.

인공지능이 인간에게 설명하는 방법은 세 가지가 있다. 텍스트로 설명하는 방법이 있고, 음성으로 설명할 수 있으며, 혹은 그림이나 그래프로 시각화를 통해서 설명하는 방법이 있다. 이렇게 인간과 소통해야 한다. 이를 달성하려면 인공지능망이 판단과 결정을 내리는 과정에서 중간 정보나 최종 정보를 가공해서 외부의 인간에게 제공해야 한다. 예를 들어 인공지능망이 사진을 판독해서 그 사진을 ‘고양이’로 판단한다면 그 근거를 설명문 형태로 내보내고 인간의 이해를 받아야 한다. 근거로 고양이의 털, 수염, 꼬리 등의 특징적인 요인을 제시한다. 기존의 인공지능망에 더해 설명지능망을 추가해야 한다. 결과적으로 인공지능망이 더욱 복잡해지고 거대화된다. 설명도 학습을 통해서 훈련한다.

설명 가능한 인공지능이 필요한 대표적인 분야가 바로 인간의 생명을 다루는 인공지능 의료 분야이다. 인공지능이 의사와 약사를 대신해 진단과 처방을 내린다. 예를 들어 인공지능이 MRI, CT, 초음파 등 의료 영상을 판독할 수 있다. 이때 설명 가능한 XAI는 판별이 모호한 질환 및 환자에 대해 자세히 표현하고 그 결과를 텍스트, 음성, 혹은 진단 보고서 등의 형태로 설명할 수 있다. 이러한 과정을 통해서 신뢰 가능한 인간 지능이 가능하게 되며, 인공지능과 의사 그리고 환자 사이에 진료와 처방에 대한 신뢰를 구축할 수 있다. 여기에 더해 인공지능연구소 오픈 AI의 채팅 로봇인 챗GPT와 협력하여 임상 보고서를 자동으로 출력할 수도 있다.

이뿐만 아니라 XAI가 국방 분야에서도 필요하게 되었다. 예를 들어 무인 항공기와 미사일 또는 핵무기의 무기 체계를 인공지능에 맡길 수 있는가 하는 윤리와 신뢰의 문제가 있다. 국방 인공지능이 충분히 인간에게 통제를 받고 동의를 받지 않는다면 인간의 생명이 위협받는 상황이 될 수 있다. 이런 배경으로 미국의 방위 고등연구계획국(DARPA)은 지난 2017년부터 XAI 프로그램 개발을 공식화하였다. 이뿐만 아니라 자율주행 자동차의 인공지능(Autopilot)도 XAI가 필요하다. 위험 상황에서 인공지능이 인간의 생명을 선택적으로 결정할 수 있기 때문이다.

공학에서는 자연 현상과 그 원리의 설명을 위해 모델을 제시한다. 모델은 텍스트 문장이나, 수학 함수 혹은 그림이나 그래프로 설명한다. 결국 수학 언어와 자연어 언어로 설명한다. 그래서 학교에서 수학, 글짓기와 발표하기가 중요하다. 이를 통해서 공학 원리를 신뢰하고 그 이론을 바탕으로 인공지능 반도체와 컴퓨터도 설계할 수 있다. 마찬가지로 인간 사회도 서로 신뢰를 쌓기 위해서는 투명성, 신뢰성, 공정성, 그리고 혁신성에 대한 설명이 필요하다. 이렇게 신뢰는 인간과 인공지능의 공통된 숙제이자 의무이다. 인간과 인공지능 사이에도 소통(疏通)과 신뢰(信賴)가 필수적인 시대가 되었다.

Copyright © 조선일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?