[김병필의 인공지능 개척시대] '왜?' 물음에 답하는 인공지능

2022. 8. 29. 00:54
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

김병필 KAIST 기술경영학부 교수

에덴동산의 아담과 이브는 선악과를 따먹었다. 신이 묻는다. “어쩌다가 이런 일을 했느냐?” 이렇게 답한다. “뱀에게 속아서 따먹었습니다.” 모두 잘 아는 이야기다. 흔히들 유혹에 넘어가는 인간의 나약함이나 책임을 남에게 떠넘기는 비겁함을 보여준다고 생각한다.

하지만 저명한 인공지능 연구자 주디아 펄은 달리 해석한다. 이 이야기가 인간지능의 본질에 관한 깊은 통찰을 담고 있다는 것이다. 그에 따르면 우리 지능의 핵심은 바로 ‘왜?’라는 물음에 답하는 능력이다. 창세기 속 인간은 신에게 왜 선악과를 따먹게 되었는지 이유를 설명한다. 즉, 이 이야기는 인간에게 어떤 일의 원인을 찾아내고 전달하는 능력이 있음을 보여준다.

「 ‘왜?’라고 묻는 것은 인간의 핵심
현재의 AI는 대화 수준에 그쳐
사건 전후의 인과율 이해 못해
신뢰성 높인 AI 연구 활발해져

인공지능 개척시대

그러면 인공지능도 이런 능력을 갖추게 할 수 있을까. 많은 연구자는 현재의 인공지능으로는 ‘왜?’라는 질문에 답하기 어렵다고 한다. 사실 어떤 사건의 원인을 설명할 수 있으려면 고도의 지적 능력이 필요한데, 아직 인공지능에는 그런 능력이 충분치 못하다.

‘왜?’라는 질문에 답하기가 왜 그리 어려운 것일까. 무엇보다도 상상력이 필요하기 때문이다. 선악과를 따먹은 이유가 뱀에게 속았기 때문이라는 답에는 한 가지 전제가 숨어 있다. 만약 뱀이 자신을 속지 않았더라면 선악과를 먹지 않았으리라는 것이다. 만약 어차피 자신들의 호기심 때문에 선악과를 먹었을 것이라면, 뱀에 속았기 때문이라고 할 수 없다. 그래서 선악과를 먹은 이유를 제대로 설명하려면, 뱀이 그들을 속이지 않았던 세상을 상상할 수 있어야 한다.

우리는 비슷한 지적 활동을 일상적으로 손쉽게 수행한다. “제품 디자인을 바꾸었기 때문에 매출이 증가했다”라고 분석했다고 해보자. 이 말은 제품 디자인을 바꾸지 않았더라면 매출이 그대로였을 것이라는 뜻이다. 이처럼 우리에게는 현실에서 일어난 일과는 반대되는 가정적 상황을 상상하는 능력이 있다.

역사학자 유발 하라리는 『사피엔스』에서 이와 같은 지적 능력이 인류의 역사, 나아가 지구의 역사를 완전히 바꾸어 놓았다고 설명한다. 수만 년 전 인류에게는 ‘인지혁명’이라는 독특한 사건이 일어났다. 그 결과 우리의 조상은 존재하지 않는 것을 상상할 수 있는 능력을 터득했다. 이를 통해 인간은 ‘왜?’라는 질문에 답할 수 있게 됐다. 왜 사과는 땅으로 떨어지고, 왜 지구는 태양 주위를 도는지 등과 같은 과학적 질문에도 답할 수 있다. 바로 이러한 물음에 답하면서 현대 문명이 생겨났다.

인공지능 이야기로 돌아가 보자. 인공지능이 진정으로 인간 수준의 지능에 도달하려면, ‘왜?’라는 질문에 답할 수 있어야 한다. 하지만 이른바 ‘딥러닝’ 인공지능에는 그러한 능력이 부족하다. 이세돌과 알파고의 대국에서 알파고가 왜 그렇게 수를 두었는지란 설명하기 어렵다. 그저 그렇게 수를 두면 승률이 올라갈 것이기 때문이라고 할 뿐이다. 인공지능 챗봇은 인간과 대화할 때 왜 그런 말을 하는지 제대로 설명하지 못한다. 그저 마치 인간처럼 대화하도록 훈련받았기 때문일 뿐이다.

최근 점점 더 많은 인공지능 연구자들이 이 문제에 주목하고 있다. ‘인공지능의 대부’ 중 한 명으로 불리는 요슈아 벤조 교수도 그중 한 명이다. 그는 지난해 발표한 논문에서 인공지능이 ‘인과율’을 학습할 수 있도록 하자는 새로운 연구 방향을 제시했다. 즉, 미래의 인공지능은 ‘왜?’라는 질문에 답할 수 있도록 발전시키자는 것이다. 그러려면 인공지능도 인간과 마찬가지로 존재하지 않는 가정적 상황을 상상할 수 있어야 한다. 장기적으로 추진할 야심 찬 기획이다.

인과율을 이해하는 인공지능을 발전시키는 일은 인공지능에 대한 신뢰를 높이는 데 꼭 필요하다. 자율주행차에 안심하고 운전을 맡기려면 왜 그렇게 방향을 바꿨는지 답할 수 있어야 한다. 인공지능을 이용해 사람을 채용하려면 인공지능이 왜 지원자를 그렇게 평가했는지 설명할 수 있어야 한다.

더 나아가 만약 인공지능이 인과율을 이해할 수 있고 우리가 인공지능의 예측을 신뢰할 수 있게 된다면, 인공지능을 인류가 당면한 여러 문제를 해결하는 데도 활용할 수 있다. 인공지능을 통해 문제의 원인을 더 깊이 있게 파악하고 여러 정책을 비교할 수 있을 것이다. 공중보건학·사회학·경제학·경영학 등 그 응용 분야는 무궁무진하다. 이것이 바로 우리에게 ‘왜?’라는 물음에 답할 수 있는 인공지능이 필요한 이유다.

김병필 KAIST 기술경영학부 교수

Copyright © 중앙일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?