"해줘"하면 꼬치꼬치 따지는 AI, 심각한 경고일지 모릅니다

신상호 2026. 5. 10. 11:18
음성재생 설정 이동 통신망에서 음성 재생 시 데이터 요금이 발생할 수 있습니다. 글자 수 10,000자 초과 시 일부만 음성으로 제공합니다.
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

[나의 AI 탐구생활] 생각 안 하고 AI가 떠먹여 주는 정보에만 의존한다면

AI는 이제 우리 삶에 스며들었습니다. 모두가 AI를 사용하는 지금, 중요한 건 '무엇을 쓰느냐'가 아니라 '어떻게 쓸지'를 고민해야 합니다. 정답은 없지만, 이 탐구 생활을 통해 해법을 찾아가는 과정을 함께 나누고 함께 고민해 보고자 합니다. <기자말>

[신상호 기자]

ⓒ nahrizuladib on Unsplash
"이것 좀 해줘."
"구체적으로 어떤 걸 해드리면 될까요?"

요즘 AI에게 "이거 해줘"라고 요구할 때 AI의 답변 태도가 달라지고 있다는 걸 느낍니다. 과거에는 "해줘"라고 던지면 군말 없이 결과물을 내놓던 AI가, 이제는 오히려 역질문을 하기 시작합니다. "누구를 위한 글인가요?", "어떤 관점을 강조하고 싶으신가요?", "구체적인 데이터 범위를 정해주시겠어요?" 이런 식으로 꼬치꼬치 따져 묻습니다.

이같은 AI의 변화, 사용자에게는 답변의 정확도를 높이기 위한 장치로 볼 수 있겠습니다. 하지만 저는 이런 AI의 변화를 인간에 대한 '경고'로 받아들입니다. 스스로 구체적으로 무엇을 원하는지도 알지 못한 채, AI에게 해달라고만 하는 인간들의 지적 게으름, 나아가서는 호모 사피엔스(생각하는 인간) 멸종에 대한 경고입니다.

인간은 수천 년간 지식을 얻기 위해 불편과 위험을 감수해 왔습니다. 수많은 화학 공식을 찾아내는 과정에서 여러 과학자들이 생명을 잃기도 했고, 수학 문제 하나를 풀기 위해 골머리를 앓다가 정신을 잃은 수학자들도 있었습니다. 그런 과정을 통해 지식은 끊임없이 축적돼 왔고, 오늘날 문명의 기반이 됐습니다. 현재를 살고 있는 우리도 불과 몇 년 전까지만 해도 도서관의 퀴퀴한 책 냄새를 맡으며 색인을 뒤지고, 수십 권의 참고문헌을 옆에 쌓아두고 지식을 탐구했습니다.

그것은 자신만의 탐구 주제를 가지고, 흩어진 정보와 지식의 조각을 모아, 자기만의 지식 지도를 그리는 인간의 '지적 대사 과정'이었습니다. 복잡한 난제 앞에서 마인드맵을 그리며 구조를 짜고, 실행 계획을 세우며, 때로는 동료와 치열하게 토론하며 논리를 다듬는 과정에서 인간의 사고력은 단련됩니다. 근육이 더 무거운 저항을 받아 성장하는 것처럼, 지성 또한 문제라는 저항을 스스로 돌파할 때 강화됩니다.

하지만 AI는 이 모든 과정을 삭제해 나가고 있습니다. "조사해줘"라는 이 한마디면 AI가 정제된 요약본을 수십 초 안에 대령합니다. 검색과 선별, 사유의 과정이 완벽하게 생략된 결과물은 인간의 머릿속에 내면화되지 않고 스쳐지나갈 뿐입니다. 스스로 논리를 세울 필요가 없으니 질문은 갈수록 뭉뚱그려지고, 사고의 회로 역시 단순해집니다. 생각하는 힘을 잃게 된 인간은 결국 AI에게 "해줘"라는 질문밖에 할 수 없게 되고, AI가 답변하는 대로 이리저리 움직이는 '노예'가 될 것입니다.
 추상적인 질문에 AI가 즉답을 내놓지 않는 경우가 많아졌습니다.
ⓒ 신상호
이러한 우려는 결코 과장된 것이 아닙니다. 펜실베이니아 대학교 워튼 스쿨의 함사 바스타니(Hamsa Bastani) 교수팀이 발표한 '생성형 인공지능이 학습에 해를 끼칠 수 있다'(Generative AI Can Harm Learning) 연구를 살펴볼까요? 이 연구는 AI를 활용한 학생 집단과 AI를 활용하지 않은 학생 집단을 비교했습니다. AI를 활용해 수학 문제를 푼 학생들은 당장의 성적은 좋았습니다. 그런데 AI 없이 치러진 시험에서는 AI를 전혀 쓰지 않은 집단보다 오히려 낮은 성적을 기록했습니다. AI에 의존하게 된다면 스스로 사고하는 능력이 떨어진다는 것을 강하게 암시하는 연구입니다.

하버드 경영대학원과 보스턴컨설팅그룹(BCG)이 공동 진행한 연구(Navigating the Jagged Technological Frontier)에 따르면, AI에 과도하게 의존한 그룹은 AI가 명백히 틀린 논리를 제시해도 이를 걸러내지 못하고 그대로 수용한 것으로 나타났습니다. 즉, 이 연구는 AI가 틀린 답변을 해도 그대로 믿고 따르는 일종의 '노예'가 될 수 있다는 위험성을 경고합니다.

과거 내비게이션이 없던 시절, 사람들은 지도를 외우고 지형지물을 살피며 길을 찾았습니다. 그 시절 운전자들의 머릿속에는 누구나 지도 하나씩은 존재하고 있었습니다. 하지만 지금은 내비게이션 없이는 장거리 운행은커녕 집 앞 골목도 헤매는 사람들이 많습니다. 편리하다는 이유로 내비게이션에 의존하게 되면서 인간 특유의 공간 지각 능력이 사라진 것입니다.

인간이 지식 탐구 과정을 모두 AI에 의존하는 현상은 내비게이션의 사례보다 훨씬 재앙적인 결과를 낳을 수 있습니다. 사람들은 아주 기초적인 의사결정조차 스스로 내리지 못하는 '지적 마비' 상태에 빠질 수 있으며, AI 오류 등이 낳은 대규모 허위 정보에 무방비로 노출돼 집단적 오판을 할 수도 있습니다. 일례로 지금도 '부정선거'의 허상을 좇는 사람들이 사회적 문제를 일으키고 있는데, 만약 이런 사람들이 다수가 된다면 어떤 일이 벌어질까요?

사유의 과정을 포기하고 AI가 떠먹여 주는 단편적인 정보에만 의존하는 사람을 '호모 사피엔스'라고 할 수 없습니다. AI에 어느 정도 의존하더라도, 스스로 탐구 문제를 찾고, 엉킨 실타래 같은 생각을 차근차근 풀어내고, 질문의 날을 정교하게 세우는 '생각의 힘'은 필요합니다. 생각의 힘을 단단히 갖추고 있는 사람들이, 그렇지 않은 사람보다 AI를 더 잘 활용하리라는 것은 두말할 필요조차 없습니다. 어쩌면 AI가 던지는 역질문은 우리에게 마지막 기회를 주는 것일지도 모릅니다.

Copyright © 오마이뉴스. 무단전재 및 재배포 금지.