촘스키 "인공지능은 진정한 지능이 아니다"
기사내용 요약
"인간 이전 인지 단계 수준"
"인간만의 언어 체계 결여"
"'무(無)윤리' 한계…사이비 과학"
[서울=뉴시스] 강영진 기자 = 아르헨티나의 소설가 호르헤 루이스 보르헤스는 위험과 희망의 시대를 살면서 비극과 희극을 겪는 과정에서 인간과 세상에 대한 이해가 엄청나게 커지고 있다고 썼다. 오픈AI의 챗GPT, 구글의 바드, 마이크로소프트의 시드니 등 인공 지능이 급속하게 발전하면서 기계의 지적 능력과 창의력이 인간을 앞서게 됐다는 평가를 받는다.
이와 관련 노엄 촘스키 MIT대 교수 등 언어학자와 인공지능 학자들은 8일(현지시간) 미 뉴욕타임스(NYT)에 기고한 글에서 인공지능의 학습 능력은 인간의 학습 능력과 본질적으로 다르다며 AI의 능력은 근본적이고 해결할 수 없는 한계가 있다고 주장했다. 다음은 기고문 요약.
언어의 힘을 빌려 보편적 이론과 사상 등 "유한에서 무한을 창조하는" 인간의 능력과 비교할 때 너무나 보잘 것 없는 인공지능에 그토록 많은 관심이 쏟아지고 돈이 몰리는 것은 보르헤스의 표현대로 희비극이다.
수많은 데이터의 패턴을 통계적으로 비교해 그럴듯한 응답을 생성하거나 과학적 문제에 가장 확률 높은 답을 내놓는 챗GPT와 인간의 정신은 전혀 다르다. 인간의 영혼은 소량의 정보만으로도 놀라울 정도로 효율적이고 우아하게 작동한다. 여러 데이터의 상관관계를 모색하지 않으며 설명을 추구한다.
아이가 언어를 배우는 과정을 보면 쉽게 알 수 있다. 극히 적은 데이터만 가지고도 무의식적이고 자동적으로 빠르게 문법과 논리 규칙, 변수들로 구성된 엄청나게 세련된 언어 체계를 깨우친다. 문법은 인간이 문장을 말하고 길게 생각할 수 있도록 하는 내재된 "운영체계"라고 할 수 있다. 언어학자들은 어린아이들이 본능적으로 최소한의 정보로 구축하는 문법을 연구해 특정 언어의 작동 원리를 규명한다. 어린이의 운영체계는 기계 학습의 운영체계와는 완전히 다르다.
인공 지능 운영체계는 인간 이전의 또는 비인간 인지 진화 단계에 머물러 있다. 지능의 가장 핵심적 역량인 사태를 기술하고 전망하는 능력은 물론 기술하거나 예측할 수 없는 것을 구분하는 능력이 결핍돼 있다는 점이 가장 큰 약점이다. 이 능력은 진정한 지능의 징표인 설명의 핵심 요소다.
손에 사과를 들고 있는 장면을 예로 들어보자. 사과를 떨어트린 뒤 결과를 보고 나서 "사과가 떨어진다"라고 말하는 건 기술이다. "손을 벌리면 사과가 떨어질 것"이라고 말하는 건 예측이다. 기술과 예측 모두 의미가 있지만 틀릴 수도 있다. 설명은 이와 다르다. 설명에는 "모든 물체는 떨어진다"와 "중력의 힘 때문에" 또는 "시공간의 굴곡 때문에"라는 조건법적 예측을 포함한다. “중력이 없으면 사과는 떨어지지 않을 것”이라는 인과적 설명을 하는 것이다. 이것이 인간의 사고다.
인공지능의 기계 학습이 가진 맹점은 기술과 예측에 있다. 인과적 메커니즘이나 물리법칙을 감안하지 않는 것이다. 인간의 설명이 틀릴 수도 있다는 점은 사고의 일부다. 옳기 위해선 틀릴 가능성도 있어야 하는 것이다. 지능은 창의적 추측과 창의적 비판으로 구성된다. 인간의 사고는 설명과 오류 교정에 토대한다. 셜록 홈즈의 표현대로 "불가능한 것들을 배제하고 나면 아무리 그럴 듯하지 않은 일일지라도 진실일 수밖에 없는" 식의 과정이다.
챗GPT 등의 인공지능은 "배움"(즉 기억하는데) 한계가 없으며 가능한 것과 불가능한 것을 구분할 수 없도록 설계돼 있다. 언어를 거의 수학 공식 수준으로 엄밀하게 제한하는 보편적 문법을 타고 나는 사람과 달리 인공지능은 인간이 할 수 있는 언어와 할 수 없는 언어를 동등한 비중으로 학습한다. 사람은 이성으로 추측할 수 있는 설명만 다루지만 기계 학습은 지구가 평평하다는 것과 지구가 둥글다는 것을 함께 학습한다. 시간의 변화에 따라 달라지는 확률에만 의존하기 때문이다.
이 때문에 인공지능의 예측은 항상 피상적이고 모호할 수밖에 없다. 인공지능은 영어 문장의 규칙을 설명할 수 없다. "존은 너무 고집스러워서 대화가 안 된다"는 문장을 존이 너무 고집스러워 다른 사람에게 말을 걸지 않을 것이라는 식으로 잘못 예측할 수 있는 것이다. "존이 사과를 먹는다"는 문장과 "존이 먹는다"는 문장을 비교해 "존이 너무 고집스러워 빌과 말을 하지 않는다"는 문장과 "존이 사과를 먹는다"는 문장과 비슷한 것으로 예측해 "존이 고집스러워 대화가 안 된다"는 문장을 "존이 먹는다"는 문장과 유사한 것으로 판단하는 것이다. 언어에 대한 올바른 설명은 너무도 복잡해 데이터가 많다고 해서 배울 수 있는 것이 아니다.
인공지능이 설명을 하지 않고도 과학적 오류를 바로 잡을 수 있다는 터무니없는 주장을 하는 사람이 있다. 설사 맞는 결과를 낸다고 해도 그건 사이비 과학일 뿐이다.
아리스토텔레스 식으로 사과가 땅에 떨어지는 것은 원래의 자리로 돌아가는 것이라고 설명하는 것은 가능하지만 땅이 왜 원래의 자리냐는 의문을 촉발할 뿐이며 아인슈타인 식으로 시공간이 구부러져 사과가 떨어진다는 이론은 전혀 그럴 것 같지 않지만 사실을 설명하는 것이다. 진정한 지능은 사고를 통해 그럴듯하지 않지만 직관이 담긴 일들을 표현하는 것이다.
진정한 지능은 또 윤리적 사고를 할 수 있다. 무한한 창의력을 윤리적 규칙으로 제한해 해야 할 일과 해선 안 되는 일을 구분하는 능력이다. 윤리적 규칙 자체가 창의적 비판의 대상이기도 하다. 챗GPT가 쓸모가 있으려면 완전히 새로운 시각을 제시할 수 있어야 한다. 이용자 대부분이 받아들일 수 있도록 윤리적 문제가 있는 콘텐츠를 제거할 수 있어야 하는 것이다. 그러나 인공지능 개발자들은 이 점에서 가장 큰 어려움을 겪고 있고 앞으로도 그럴 것이다.
챗GPT의 전신인 마이크로소프트의 테이 챗봇이 2016년 여성혐오적이고 인종차별적인 콘텐츠를 쏟아낸 적이 있다. 윤리 원칙에 따라 추론할 수 있는 능력이 없으면 해결할 수 없는 문제다. 챗GPT 프로그래머들은 챗GPT가 논쟁적 주제에 새로운 언급을 할 수 없도록 처방했다. 무(無)윤리를 위해 창의력을 희생시킨 것이다.
한 마디로 챗GPT와 같은 인공지능은 창의력과 자제력 사이의 균형을 취하는 것이 불가능하다. 진실이든 거짓이든 마구 생산함으로써 윤리와 비윤리적 판단을 동일하게 취급하고 스스로 내린 판단과 결과에 대해 아무런 책임도 지지 않는다. 우리 인간은 무윤리, 가짜 과학, 언어적 능력이 부재한 인공지능을 비웃을 수 있지만 그로 인해 고통을 당할 수도 있다.
☞공감언론 뉴시스 yjkang1@newsis.com
Copyright © 뉴시스. 무단전재 및 재배포 금지.
- 김준호, ♥김지민에 '2캐럿 다이아' 프러포즈…"가격 듣고 귀 빨개져"
- 박하선, 지하철 불법촬영 당해 "치마 밑으로 카메라가…"
- 클라라, 확 달라진 외모…성형 의혹에 민낯 공개
- 66세 주병진, 22살 연하 ♥최지인과 결혼? 자녀운 봤다
- 이세영, 얼굴 전체 성형 후 근황…여대생 미모
- "반쯤 누워 게임만 했다"…송민호 '부실복무' 주장 나왔다
- 장재인 파격의 연속…노브라 이어 하의실종 망사
- '오상욱♥열애설' 하루카 토도야, 상반신 파격노출
- 대형 방송 사고 김태리…SBS연기대상서 "MBC…"
- '김태희♥' 비, 안타까운 소식…"여러분 죄송합니다"