[김재인의 피지컬 vs 디지털]‘디스킬 제너레이션’이 온다

김재인 경희대 비교문화연구소 교수 2026. 4. 20. 20:19
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.


지적 탈숙련은 기성세대보다 미래세대에 훨씬 심각한 문제다
미래세대는 애초에 지적 밑천이 없다
AI는 이들의 성장 훈련을 건너뛰도록 유혹했다
AI로 ‘딸깍’ 답을 얻는 건 아무나 할 수 있고,
그런 ‘아무나’를 원하는 조직은 없다
조직은 차별화된 능력 있는 사람을 원한다
남과 다른 사람이 되려면 쉬운 ‘딸깍’이란
길 대신 비판적 사고 훈련이라는 고된 길을 가야 한다

처음 챗GPT가 등장했을 때 ‘좋은 답을 얻으려면, 질문을 잘해야 한다’는 말이 유행했다. 그러나 이 말은 틀렸다. ‘정답을 얻으려면, AI가 아니라 전문가에게 질문해야 한다.’ 오답을 바라는 게 아니라면 말이다.

최신 거대언어모델(LLM) AI는 질문에 어떤 식으로 답하고 있을까? 출시된 지 3년 넘게 지났지만, 질문할 때마다 매번 다르게 답한다는 문제는 개선되지 않고 있다. 이 문제는 ‘환각(hallucination)’이라고 부르는 ‘헛소리(혹은 지어낸 말)’와는 조금 다른 관점에서 검토해야 한다. 하지만 지금까지는 별로 주목받지 못했다. 우리는 보통 한 번 묻고 나서 얻은 답을 그대로 받아들이는 식으로 사용하고 있기 때문이다. 답이 마음에 들지 않으면 추가로 질문해서 새로 답을 얻어내는 노하우도 공유되고 있지만, 이 답도 정답이 아니라는 건 눈치채기 어렵다.

이 문제와 관련해 최근에 한 가지 실험을 해봤다. 내가 30년 넘게 연구한 현대 프랑스 철학자 질 들뢰즈에 대해 어떻게 답할지 궁금했다. 그래서 ‘제미니 3 사고 모델’에 이런 질문을 입력했다. “들뢰즈가 인공지능 연구에 기여한 가장 중요한 측면이 뭐지?”

그러자 다음 문장으로 시작하는 답이 나왔다. “질 부를르 들뢰즈의 철학은 현대 인공지능(AI), 특히 연결주의와 생성형 모델의 작동 원리를 철학적으로 정당화하고 확장하는 데 결정적인 통찰을 제공합니다.”(답변 1) 창을 닫고 새 창을 열어 똑같은 질문을 붙여 넣었더니, 이런 답이 나왔다. “질 들뢰즈의 철학은 현대 인공지능(AI), 특히 머신러닝과 신경망 중심의 생성형 AI 시대를 해석하고 구축하는 데 있어 매우 중요한 이론적 토대를 제공합니다.”(답변 2) 세 번째 답변은 다음과 같았다. “질 들뢰즈의 철학은 현대 인공지능(AI) 연구, 특히 연결주의와 딥러닝의 철학적 토대를 이해하고 확장하는 데 결정적인 통찰을 제공합니다.”(답변 3)

세 답변은 서로 다른 내용을 담고 있다. 답변 1에서 ‘질 부를르 들뢰즈’라고 난데없이 “부를르”를 끼워 넣은 것은 애교로 넘어가자. 문제는 각 답변의 키워드가 ‘연결주의와 생성형 모델’(답변 1), ‘머신러닝과 신경망 중심의 생성형 AI’(답변 2), ‘연결주의와 딥러닝’(답변 3)이었다는 점이다. 이 키워드는 서로 연결하려면 꽤나 설명이 필요한 것들이어서 사실상 다른 답이다. 실제로 세 답변의 세부 설명은 완전한 헛소리로 채워져 있다. 독자들도 비슷한 실험을 해보라고 권하고 싶다.

몰라서 물었는데 서로 다른 답변들이 나오면, 어떤 것을 정답으로 받아들여야 할까? 우리로서는 결정할 방법이 없다. 애초에 우리는 모르기 때문이다. 이 실험의 결론은 무엇인가? 뭔가 알고 싶더라도 AI한테 질문해서는 안 된다. 물을 때마다 다르게 답하는 AI는 답변할 자격이 없다. AI는 매번 말이 달라지는 사기꾼이다. 만일 인간 전문가였다면 이런 식으로 답할 리가 없다. 표현은 조금씩 다를지라도, 똑같은 답을 말했을 것이다.

매번 말이 달라지는 AI는 사기꾼

우리가 질문하는 이유는 모르는 것을 알기 위해서다. 그래서 정답을 알고 있다고 여겨지는 전문가(부모, 선생님, 교수 등)에게 묻거나 전문가가 쓴 저술(학술논문, 책, 사전 등)을 참조하곤 한다. 이럴 때 서로 다른 답변이 있다면, 그중 어느 하나만 정답이고 다른 것들은 오류라고 여기는 것이 합당하다. 전문가 사이에서도 아직 합의되지 않았다는 걸 알게 되는 것도 수확이다. 이런 걸 연습하는 것이 ‘비판적 사고’ 훈련이다.

전문가 한 사람이 답변할 때마다 같은 내용을 조금씩 다르게 표현하는 것을 넘어, 매번 다른 내용을 말한다면 당신은 어쩔 텐가? 아마도 질문하는 걸 당장 멈출 것이다. 전문가라면 한결같은 진실 혹은 지식을 말할 것이기 때문이다. 바로 이런 이치로, 매번 다르게 답하는 AI한테도 질문하면 안 된다. 적어도 지식의 영역에서라도 AI로부터 독립해야 한다. AI에 지식을 묻지 말자는 제안이다.

혹자는 이렇게 강변한다. 지금처럼 질문이 사라진 시대에 AI한테라도 질문하는 게 어디냐? 질문하는 습관 자체가 중요하지 않냐? 그럼, 질문을 멈추라는 말인가? 그러나 답변할 자격이 있는 누군가에게 질문해야지, 사기꾼에게 질문해서는 안 된다. 결국 실망한 채로 호기심마저 잃게 될 거고, 신뢰를 배신당하고 말 것이다.

반전이 있다. 내 실험에는 더 중요한 비밀이 있다. 사실 들뢰즈는 현행 AI에 비판적이었다. 들뢰즈의 표현으로 ‘인공 뇌’를 만들려는 현대적 시도는 출발부터 문제가 있다. 창의성의 핵심인 ‘사고의 비약’은 고장 혹은 코드 붕괴(decoding)에서 나오는데, 현행 AI는 그런 식으로 설계되어 있지 않기 때문이다. 따라서 내 질문에 대한 AI의 답변은 모두 근본부터 잘못되었다. 들뢰즈는 AI 연구에 기여한 바가 없다, 혹은 AI 연구에 비판적이었다고 답했어야 맞다.

안타깝게도 들뢰즈와 AI의 관계에 대한 연구 논문은 거의 없다. AI는 인간의 연구에 ‘후행’한다. 이 주제에 관해 연구를 진행하고 있는 나 같은 전문가여야 들뢰즈와 AI의 관계를 답할 수 있고, 내 논문이 공개되어야 AI의 정보도 조금 업데이트될 것이다.

자신이 직접 해야만 하는 생각 활동, 인지 활동, 뇌 활동을 지금처럼 AI한테 외주 주는 습관이 굳어지면, 인류는 지적으로 무너져 내리게 될 것이다. 지식과 실력의 성장이 멈추거나 퇴보할 것이 분명하다. 나는 이 상황을 ‘디스킬 제너레이션(deskill generation)’, 탈숙련 세대의 출현이라고 진단한다.

지적 탈숙련은 기성세대보다 미래세대에게 훨씬 심각한 문제이다. 미래세대는 애초에 지적 기반이 충분히 축적되지 않았다. AI는 이들이 성장을 위한 훈련을 건너뛰도록 유혹했다. 어릴 때 고된 훈련을 통해 이미 뛰어난 능력을 갖춘 능력자의 시선으로 보면, AI는 엄청나게 좋은 도구다. 이들의 목소리는 ‘AI 찬가’를 외친다. 하지만 미래세대에게 끼치는 악영향에 주목하는 이들은 ‘AI 비가’에 오열한다. 현장의 교육자들이 그들이다.

교육자들은 ‘AI의 비가’에 오열

최근의 조사들은 미래세대가 AI에 질문하지 않도록 금지할 수 없다는 점을 보여준다. 이미 대부분이 그렇게 하고 있고, 기성세대도 마찬가지다. 막을 수 없다면 대안은 무엇일까? 보스턴대학교의 크리산토스 델라로카스(Chrysanthos Dellarocas) 교수는 ‘AI가 모든 걸 할 수 있을 때 배울 게 뭐가 남아 있을까?’(2026년 4월13일)라는 글에서 흥미로운 제안을 한다. 여태껏 그랬듯 결과물을 보고 학생이 그걸 만들어 낼 역량을 갖고 있다고 가정하기를 멈추고, AI가 생성한 결과물을 감독하고 평가하며 책임질 수 있는 역량을 길러줘야 한다는 것. 학생은 결과물을 사후 검토(debrief)하고 설명할 수 있어야 한다.

이 제안은 AI가 늘 정답을 말한다는 전제에서 출발한 듯하지만, 매번 다른 답을 하는 상황에도 응용할 수 있다. 즉 어떤 진술, 가령 AI의 답을 접했을 때 그것이 진실이라고 생각하는 이유가 무엇인지 되묻도록 유도하는 것이다. 아니면 질문할 때마다 항상 세 번 똑같이 묻게 하고, 답들이 다른 이유를 찾도록 요구하는 것이다. 기대되는 효과는 무엇일까?

나의 제안을 따르면, 자신도 모르게 비판적 사고를 훈련하게 된다. 지금까지 철학 훈련을 통해 실행됐던 비판적 사고 훈련은 ‘묻고 따지고 비교하고 검증하는’ 작업이 핵심이다. 내 실험에서처럼, 세 번 묻고 답을 얻었을 때 답이 서로 다른 이유를 설명하려면, 두 가지 접근을 떠올릴 것이다.

첫째, AI에 이유를 물어보는 것. 단, 세 번 물으면 좋겠다. 그렇지만, 이렇게 하면, 아마도 오답의 소용돌이와 늪에서 끊임없이 허우적거리게 될 것이다. 둘째, 전문가에게 물어보는 것. 이 방식은 쉽지 않겠지만, 적어도 정답 근처까지 이끌어 줄 것이다. 그러니 둘째가 유일하게 좋은 선택이다.

미래세대에게 조언하고 싶다. AI로 ‘딸깍’ 답을 얻는 일은 아무나 할 수 있고, 그런 ‘아무나’를 원하는 조직은 없다. 조직은 차별화된 능력이 있는 사람을 원한다. 언제나 그랬다. 남과 다른 사람이 되려면 ‘딸깍’이라는 쉬운 길 대신 ‘비판적 사고 훈련’이라는 고된 길을 가야 한다. 선택은 당신에게 달려 있다.

김재인 경희대 비교문화연구소 교수

김재인 경희대 비교문화연구소 교수

Copyright © 경향신문. 무단전재 및 재배포 금지.