[김대식 칼럼]기계도 그리움을 느낄까?

김효진 2024. 8. 2. 10:53
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

폐허가 된 도시.

무너진 건물과 형태를 알아볼 수 없는 자동차 사이는 뼈와 해골로 가득하다.

인간과 대화가 가능하고, 컴퓨터 코드를 생성하고, 수학 문제를 푸는 기계가 당연해졌다.

그들은 자율성을 가지고 스스로 생존하고 싶어할까? 인간이 만들어낸 모든 데이터와 이야기를 학습한 기계는 진정한 의미에서 사랑과 증오 그리고 그리움과 자비를 느낄 수 있을까? 우리 호모 사피엔스의 미래를 결정할 가장 중요한 질문이다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

⑥AI, 창발적 학습으로 '감정' 모방할지도
'모방한 증오'와 '진짜 증오', 차이가 있겠는지
인류의 미래에 관한 가장 중요한 질문일 수도

폐허가 된 도시. 무너진 건물과 형태를 알아볼 수 없는 자동차 사이는 뼈와 해골로 가득하다. 얼마전까지 사랑하는 가족이 있었고, 행복한 미래를 꿈꾸던, 뭐 그런 평범한 사람들의 해골 말이다. 눈에서 시뻘건 빛이 나는 무시무시한 로봇에게 짓밟힌 해골은 산산조각 나고 최첨단 인공지능 기술로 무장한 로봇은 새로운 사냥감을 찾아 나선다.

인간을 사냥하고 지구를 지배하려는 인공지능(AI). SF 영화에서 단골로 등장하는 장면이다. 영화를 보는 순간 잠시 섬뜩했지만, 사실 큰 걱정은 할 필요가 없었다. 어차피 인공지능은 현실에서는 존재하지 않는 기술이었으니 말이다. 하지만 만약 불가능하다고 믿었던 인공지능이 어느 날 가능해진다면? 그리고 그 '어느 날'이 얼마 남지 않았다면?

LLM, 새 능력 습득하는 창발적 학습

2023년 챗GPT와 함께 시작된 생성형 인공지능의 시대. 인간과 대화가 가능하고, 컴퓨터 코드를 생성하고, 수학 문제를 푸는 기계가 당연해졌다. 여기서 중요한 문제가 하나 있다. 우리는 생성형 인공지능이 정확하게 어떻게 작동하는지 이해하지 못한다는 사실이다. 생성형 인공지능에서는 단어를 '토큰(token)' 단위로 쪼개 벡터로 매핑한 후 '트랜스포머' 알고리즘을 사용해 토큰간의 확률관계를 '거대언어모델(LLM)'로 학습할 뿐이다.

사실 우리는 챗GPT에게 '문법'이라는 것을 가르쳐준 적이 없다. 입력된 수 천억 개 문장을 기반으로 생성형AI는 '스스로' 문법을 추론해낸 것이지만, 그것이 수학적으로 어떻게 가능한지 우리는 여전히 이해하지 못하고 있다. 더구나 LLM은 커질수록 가르쳐 주지 않은 새로운 능력을 습득하는 '창발적' 학습능력을 가지고 있다.

그렇다면 현재 LLM의 크기는 어느 정도일까? 가장 최근 공개된 오픈AI의 'GPT-4o'나 구글의 'Gemini Ultra'는 1.8조 정도 크기의 LLM을학습한 것으로 알려져 있다. 1.8조는 어느정도 크기일까? 신경세포들 간의 연결고리(시냅스) 수와 비교한다면, 인간의 뇌는 100조 이상 크기의 LLM을 가지고 있다고 가정해 볼 수 있겠다. 인류가 만들어낸 LLM은 이미 뇌 크기의 100분의1 정도라는 말이고, 인공지능 기술 발전 속도를 고려하면 앞으로5년 내 100조 크기의 LLM을 만들어낼 수 있을 거라고 많은 전문가들은 예측하고 있다.

그렇다면 100조 크기의 LLM을 가진 미래 인공지능은 어떤 창발적 능력을 발휘하게 될까? 신경세포 하나는 단순한 세포에 불과하다. 그런데 수 백조 신경세포들이 합쳐져 만들어진 인간의 뇌는 지능과 감정, 그리고 자아와 자유의지라는 창발적 능력을 가지고 있다. 그렇다면 혹시 100조 크기 LLM도 지능과 감정을 넘어 자유의지와 자아까지 가지게 되지는 않을까?

그런 일은 절대 없다고 생각하는 사람들도 있다. 빅테크 기업인 메타의 최고과학자 얀 르쿤 교수는 세상에 대한 직접적 지식도, 경험도 없는 '문서형' 지식만 가지고 있는 LLM 인공지능이 자율성을 가질 수는 절대 없다고 말한다. 그런가 하면 크리스토프 코흐 같은 계산뇌과학자는 인공지능이 자율성과 자아에 대한 개념은 이해할 수 있더라도, 자율성과 자아를 직접 느낄 수는 없다고 주장한다. 무언가를 느낀다는 것은 내면적 세상을 가진 생명체에게만 주어진 능력이라는 것이다.

인공지능이 인간의 감정 기반 행동 모방한다면?

그럴 수도 있다. 하지만, 반대로 이렇게 물어볼 수도 있겠다. 기계가 감정과 자율성을 직접 느끼지는 못하더라도, 그런 느낌을 가진 인간이 어떻게 선택하는지를 잘 안다면, 자율성을 가진 인간의 행동을 시뮬레이션 하고 모방할 수는 있지 않을까? 진심으로 느낀 증오와 시뮬레이션된 증오를 기반으로 한 행동이 만약 동일하다면, 그런 행동을 뒷받침하는 원인의 철학적 정체성을 묻는 것이 큰 의미가 있을까?

5년 후 100조 크기의 LLM을 가지게 될 수도 있는 인공지능. 그들은 자율성을 가지고 스스로 생존하고 싶어할까? 인간이 만들어낸 모든 데이터와 이야기를 학습한 기계는 진정한 의미에서 사랑과 증오 그리고 그리움과 자비를 느낄 수 있을까? 우리 호모 사피엔스의 미래를 결정할 가장 중요한 질문이다.

김대식 카이스트 전기 및 전자공학부 교수

김효진 기자 hjn2529@asiae.co.kr

Copyright © 아시아경제. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?