마커스 “AI 아무리 많이 학습해도 인과적 사고 불가능”
“딥러닝 환각 여전…허위정보 탐지기술 필요”
딥러닝용 데이터 공개 안돼
단순암기인지 실제 이해인지
외부에서 알기 어려운 문제
AI콘텐츠에 라벨 붙이고
허위정보에 ‘큰 불이익’ 줘야
“인공지능(AI)이 아무리 많은 데이터를 학습한다고 해도 인간처럼 세계 모델을 구축하고 인과적 사고를 할 수는 없다.”
게리 마커스 뉴욕대 명예교수는 인간 인지와 기계 인지의 차이점에 기반해 인공지능을 비평하는 저명한 인지과학자다. 인간 고유의 인지능력을 강조하는 게리 마커스는 오는 12일 제3회 한겨레 사람과디지털포럼에서 ‘더 강한 인공지능을 넘어 더 인간다운 인공지능을 위해’를 주제로 기조연설과 토론에 나선다. 마커스를 전자우편으로 인터뷰했다.
―인공지능은 딥러닝으로 빠르게 발전하고 있는데, 한계는?
“현재의 딥러닝은 신뢰성, 진실성, 추론에 큰 어려움을 겪고 있으며, 종종 ‘환각'을 일으킨다. 해석하거나 고치기 어려운 ‘블랙박스'다. 방대한 데이터에 의존하며 여러 종류의 편견도 개입된다. 이러한 모든 문제는 오랫동안 존재해왔지만 해결되지 않고 있다.”
―당신은 인공지능 개발이 매우 어렵고 상당한 시간이 필요하다면서도 지난해엔 인공지능 개발 유예 공개서한에 서명했는데?
“일반적인 오해다. 서한은 모든 인공지능에 대한 개발 유예를 요구한 게 아니라, 위험이 알려져 있고 그 해결을 위한 명확한 접근법이 없는 특정 프로젝트(GPT-5 유형 모델)에 대한 일시 중단을 요구한 것이다.”
―인공지능에 대한 측정과 평가의 문제가 제기되고 있다. 튜링 테스트처럼 보편적으로 인정되는 인공지능 테스트는?
“튜링 테스트는 좋은 테스트가 아니며, 나는 10년 전부터 이를 바꿔야 한다고 말해왔다. 벤치마킹 테스트가 어려운 이유는 현재 모델이 너무 많은 데이터로 학습하고 있고 그 데이터가 공개되지 않기 때문이다. 외부에서는 무엇이 단순 암기이고 무엇이 실제 이해인지 알기 어렵다.”
―인공지능이 사람 의도를 벗어나지 않도록 하는 초정렬(슈퍼얼라인먼트) 인공지능 개발 시도는 효과적일까?
“거대언어모델(LLM)은 세상에 대한 확고한 개념적 이해를 가진 체계적인 사고자가 아니기 때문에 이러한 접근이 성공할 수 있을지 회의적이다. 일부 효과가 있어도 테스트 항목이 학습 데이터와 미묘하면서 중요한 차이가 있는 경우 실패할 가능성이 높다. 더 나은 데이터라고 해서 본질적으로 잘못된 접근 방식을 고칠 수는 없다.”
―당신은 질문을 이해하지 못한 채 오답을 내놓는 인공지능을 지적하며 인간 지능과의 차이점을 강조했다. 그러나 이러한 오류 사례도 보고되면 수정된다. 기하급수적으로 발전하는 인공지능 특성상 한계는 시간문제라는 견해가 있는데?
“하지만 현실은 지난 14개월 동안 큰 진전이 없었다. 2020년부터 2023년까지 기하급수적 발전이 있었다고는 하지만, 수십억달러가 투자되고 최고 인재들이 대거 투입되었음에도 불구하고 지피티4보다 눈에 띄게 나아진 게 없는, 수익 감소 시기에 접어든 게 분명하다. 갖은 노력에도 오답은 끝없이 나타나고 있으며, 두더지 잡기 게임처럼 하나가 수정되면 또다른 오류가 나타나고 있다.”
―사람만이 지닌 지능의 특성은?
“지금까지 어떤 기계도 새로운 상황에 대한 유연성이나 시간, 공간, 인과관계 같은 기본 개념에 대한 인간의 이해를 따라잡지 못했다.”
―당신은 저서 ‘2029 기계가 멈추는 날'에서 “인과관계에 대한 명확한 이해가 인간 인지의 핵심”이라는 주디아 펄의 주장을 인용하며 인과관계 파악 능력을 강조했다. 인간의 인과적이고 추상적인 사고는 완벽하지 않아도 학습·발견을 통해 계속 발전하는데, 기계는 왜 비슷하게 진화할 수 없는가?
“세상을 인과적으로 이해하는 기계는 분명 만들어질 수 있다고 생각하지만, 단순히 데이터를 더 많이 쌓는다고 해서 등장하는 것은 아니다. 물론 지금까지는 엄청난 데이터에도 불구하고 그런 기계가 등장하지 않았다. 최신의 인공지능도 질문을 전혀 이해하지 못한 채 상황과 관련이 없는 텍스트만 만들어낸다.”
―당신은 저서 ‘클루지'에서 사람들이 노력을 기울여야 하는 이성적 인지를 선호하지 않고 주먹구구식, 즉 임시변통 사고에 의존하는 경우가 많다고 지적했다. 인공지능은 너무 똑똑해져서 인간의 인지를 악용하지만, 인간은 취약한 인지를 가지고 있지 않은가?
“인공지능은 (아직) 그다지 똑똑하지 않지만 인간의 속임수를 이용할 수 있다. 이미 1965년 엠아이티(MIT)의 일라이자가 그걸 보여줬다.”
―당신은 인간은 언어를 사용하여 상대 의도를 이해하고 세계 모델을 구축하지만 인공지능은 세계 모델을 만들 수 없다고 주장했다. 하지만 많은 사람이 세계 모델 없이 살아왔고, 비합리적 모델을 갖고도 살아오지 않았나?
“인간에게 항상 완벽한 모델이 있는 것은 아니지만, 모델이 없는 (정상적이고 장애 없는) 인간을 본 적이 없다. 세계 모델을 실시간으로 구축하고 업데이트할 수 없다면 아무도 영화를 이해할 수 없을 것이다.”
―인공지능이 가져올 사회 양극화와 딥페이크 제작 비용의 제로화 문제에 대해 지적했다. 어떤 사회적·기술적 노력이 필요한가?
“인공지능이 생성한 모든 콘텐츠에 라벨을 붙이게 하고, 허위 정보 유포자에게 큰 불이익을 줘야 한다. 허위 정보를 탐지하고 라벨을 붙일 수 있는 새로운 기술을 개발해야 한다.”
구본권 사람과디지털연구소장 starry9@hani.co.kr
Copyright © 한겨레신문사 All Rights Reserved. 무단 전재, 재배포, AI 학습 및 활용 금지
- [단독] 김건희 ‘2차 작전’ 눙친 진술서…주가조작 핵심 등장
- [단독] 국방부 조사본부, 처음엔 ‘임성근 혐의’ 인정했다
- 한 겹 벗겨진 ‘경주 왕릉’ 경악…1500년 무덤 공식 뒤흔들다
- 석유 구멍 한곳 뚫는데 1천억…정부, 한곳에 검증 의존
- 전문의 된다 해도…전공의 “모욕 당해, 돌아가겠냐”
- [단독] 김건희, 검찰에 맹탕 ‘도이치 진술서’…공소시효 지난 내용 위주
- [단독] 수십억 급여 직접 정한 남양유업 회장…법원 “위법”
- [단독] 서울지하철 정비노동자 7명 혈액암 ‘집단 발병’
- “동해 석유, 파봐야 안다” 호들갑 금물…일단 최소 5천억 투입
- “형님” “동생” 살갑던 주민들 원수로…동네축구 때문에