[김병필의 인공지능 개척시대] 머지않아 도래할 인간 수준 인공지능

2024. 4. 15. 00:28
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

김병필 KAIST 기술경영학부 교수

한 인공지능(AI) 전공 교수에게서 들은 이야기다. 그는 2000년대 초 국내에서 컴퓨터 공학 석사 과정을 마치고 유학을 준비하고 있었다. 학문적 호기심과 열정을 바탕으로 AI를 전공하려고 마음먹었다. 그러자 지도교수가 극구 만류했다. “AI를 공부해서는 제대로 된 직장을 찾기 어려울 것이야”라며 걱정했다. 다행히 지도교수의 예상은 빗나갔다. 그는 이제 세계적으로 저명한 AI 전문가가 되어 존경받는 교수이자 AI 관련 창업자가 되었다.

이 이야기는 미래 기술 발전을 예측하는 일이 얼마나 어려운지 잘 보여준다. 고작 20여 년 전만 하더라도 AI는 겨울을 나고 있었다. 뛰어난 컴퓨터 공학자라 하더라도 AI의 폭발적 성장을 상상하기란 쉽지 않았을 터였다.

「 2047년 인간 수준 AI 확률 반반
기술 발전 속도 전망 따라 달라
최악 시나리오 상정·대비해야
적정 AI법률 제정, 새 국회 임무

[일러스트=김지윤]

전문가 개개인이 미래를 예측하는 일이 어렵다면, 여러 전문가의 예측을 종합하면 어떨까. 집단 지성의 힘을 빌릴 필요가 있다. 올해 초 바로 이러한 설문 결과가 발표되었다. 이 설문에서는 AI 전문가 2778명에게 미래의 AI 기술을 전망해 보라고 했다. 설문 대상은 세계 최고 AI 학술지에 논문을 게재한 연구자들이다.

설문 결과는 사뭇 놀랍다. 가장 눈길을 끄는 질문은 모든 작업에 있어 인간의 능력을 뛰어넘는 AI가 과연 언제쯤 등장할 것인지였다. 설문 결과 2047년까지 AI가 인간 수준까지 발전할 확률이 반반이라 한다. 예측보다 발전이 지체될 수도, 앞당겨질 수도 있다. 수많은 예측의 평균치가 2047년이다. 앞으로 23년밖에 남지 않았다.

하지만 2100년이 되어도 인간 수준 AI는 도래하지 못할 것이라 본 연구자도 적지 않았다. 이러한 예측 차이는 왜 발생한 것일까. 이유는 크게 두 가지다. 첫째, 현재 기술 수준에 대한 평가다. 낙관론자들은 지금의 기술이 이미 인간 지능 근처에 이르렀다고 본다. 약간 더 개선하면 인간 수준에 이를 것이라 기대한다. 반대로 비관론자들은 수많은 기술적 난관이 남아 있다고 본다. 지금의 AI는 아직 고양이 수준에도 못 미친다고 평가하는 연구자도 있다. 글·그림 생성과 같이 몇몇 분야에서 뛰어난 성과를 낸 덕분에 착시를 겪고 있다는 것이다.

예측 차이의 둘째 원인은 기술 발전 속도에 대한 평가다. 낙관론자들은 지금과 같이 막대한 연구 자금이 AI 분야에 계속 투입되면 혁신에 가속이 붙을 것이라는 점에 주목한다. 그러니 기술적 난관이 있더라도 쉬이 돌파할 것으로 전망한다. 반대로 비관론자들은 조심스럽다. 자율주행차 사례는 비관론을 뒷받침한다. 수년 전만 하더라도 자율주행 기술이 조만간 완성될 것이라는 기대가 컸다. 하지만 현재는 기대 수준이 크게 달라졌다. 앞으로 10년 혹은 그 이상이 소요될 것이라는 예상이 많다.

이처럼 AI 분야의 최고 전문가 사이에서도 미래 전망이 엇갈린다. 그러니 우리가 AI 시대에 어떻게 대비해야 할 것인지 답을 찾는 일은 더욱 어려워지고 있다. 이처럼 불확실성이 큰 상황에서 펼쳐야 할 정책은 크게 두 가지가 있다.

우선, 발생할 수 있는 최악의 시나리오를 상정하고, 그러한 상황이 발생하지 않도록 미리 대비하는 것이다. 앞서 소개한 설문 결과처럼, 정말 머지않아 인간 수준 AI가 도래한다면 고도화된 자율 살상 무기가 인류의 생존을 위협하는 상황도 개연성이 있다. 테러리스트 집단이 AI를 이용해 전력망·교통망 등 주요 인프라를 해킹하여 무너뜨릴 위험도 있다. 이와 같은 중대한 위험 요인에 대해 국가가 앞장서서 선제적으로 대비해야 한다.

하지만, 현재의 AI가 여전히 기술 초창기에 불과하다는 의견도 일리가 있다. 위험 예방에만 초점을 맞춘 나머지 기술 발전을 소홀히 하면 오히려 전 세계 기술 경쟁에서 뒤처질 수 있다. 인공지능이 가져올 사회적·경제적 편익과 소요 비용을 잘 따져 도움이 되는 기술이 더 빠르게 발전할 수 있도록 지원할 필요도 크다.

얼마 전 22대 국회의원 선거가 치러졌다. 새로 구성될 국회가 해야 할 역사적 임무 중 하나는 AI에 관한 법률을 제정하는 일이다. 혹자는 AI가 대재앙을 초래할 가능성을 경고하면서 AI 규제가 시급하다고 주장한다. 반대로 AI가 가져올 막대한 편익을 고려하면 섣부른 규제 시도가 오히려 더 큰 해악을 끼칠 것이라 보는 이들도 많다. AI 규제론과 규제 반대론이 팽팽히 대립하는 상황에서 적절한 법을 만드는 일은 쉽지 않은 과제다.

어느 입장이 더 설득력 있는가. 두 주장을 곰곰이 들여다보면, 반드시 서로 충돌하는 것이 아니라는 점을 알 수 있다. AI가 초래할 중대한 위험에 대해서는 미리 대비하면서도, 편익이 큰 기술의 발전은 장려할 수 있다. 우리는 두 주장 중 하나를 선택해야 하는 것이 아니라, 두 목소리 모두에 귀를 기울여야 한다.

김병필 KAIST 기술경영학부 교수

Copyright © 중앙일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?