생각 끈 채 사는 현대인…‘호모 브레인오프’를 아시나요 [스페셜리포트]

정다운 매경이코노미 기자(jeongdw@mk.co.kr), 나건웅 매경이코노미 기자(wasabi@mk.co.kr), 지유진 매경이코노미 인턴기자(jyujin1115@korea.ac.kr), 양유라 매경이코노미 인턴기자(diddbfk1@naver.com) 2025. 10. 15. 21:03
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

# 평일 지하철. 책가방 멘 학생의 스마트폰 화면에는 숏폼(짧은 영상)이 쉴 새 없이 재생된다. 옆자리 대학생은 챗GPT로 과제를 뚝딱 완성한다. 챗GPT에 이런저런 말을 붙여보던 한 중년은 거래처와 함께 먹을 점심 메뉴까지 추천받는다. 30대 직장인은 온라인 쇼핑몰에서 AI가 고른 ‘오늘의 옷’을 확인한 뒤 결제한다.

이 익숙한 장면은 인공지능(AI)과 알고리즘에 의존하는 우리 현대인의 일상을 단적으로 보여준다. 하지만 기술 발전 덕분에 정보와 선택지가 넘쳐나는 세상에서 정작 ‘사유의 시간’은 점점 줄어드는 중이다. 시시콜콜한 고민부터 머리 아픈 고민까지 AI에게 ‘외주’를 준다. 마치 뇌 스위치를 꺼둔 듯 AI와 알고리즘이 제시하는 답을 그대로 수용하는 인간형, 바야흐로 ‘호모 브레인오프(Homo Brain-off·생각을 끈 인간)’ 시대다.

편리함이 나쁜 건 아니다. 사람은 오래전부터 편리함을 추구해왔다. 가뜩이나 현대인은 바쁘다. 학업, 업무, 가정에서 쏟아지는 일을 처리하기에도 벅차다 보니 ‘잠시라도 뇌를 쉬게 하자’는 유혹은 달콤하다.

이런 사회 분위기 속에 스마트폰과 AI 기술이 결합한 초개인화 알고리즘은 단순히 편리한 도구를 넘어 인간 사고 과정을 직접 대체하기 시작했다. 의문을 제기하고, 정보를 찾고, 취합한 정보에 또다시 의문을 제기하고, 토론하며 쌓아온 사유의 경험이 사라지고 있다는 얘기다.

각종 플랫폼 기업 역시 브레인오프를 부추긴다. 검색 결과 상단에 노출되는 광고 상품, OTT가 추천하는 ‘오늘의 콘텐츠’, SNS가 띄워주는 맞춤 영상은 모두 기업의 알고리즘이 설계한 선택지다. 사용자(소비자)가 굳이 비교하거나 고민하지 않도록 ‘편리한 답’을 제시한다. 이인아 서울대 뇌인지과학과 교수는 “충분히 비교·검토하는 과정이 사라진 것이 브레인오프 현상을 심화시키고 있다”고 지적했다.

브레인오프 흐름은 한국 사회 특유의 교육·문화와도 맞닿아 있다. 오랜 기간 주입식, 정답 중심 교육을 받아온 세대에게 정답을 빠르게 알려주는 AI는 더없이 유익한 도구다. 해석과 과정보다는 효율과 속도를 중시하는 이런 사회 분위기 속에 생성형 AI 이용 비용까지 저렴해졌다. 사용자가 빠르게 늘면서 ‘나만 쓰지 않으면 도태된다’는 불안감이 브레인오프 현상을 더욱 가속화했다. 이병훈 중앙대 사회학과 교수는 “한국 교육은 성적과 대입에만 몰두하면서 비판적·창의적 사고를 메마르게 했다”며 “AI 교육도 기술 사용법만 강조할 뿐 사회적 위험이나 부정적 파급 효과를 따져 묻는 과정이 부족하다”고 꼬집었다.

전문가들은 이런 습관이 일상이 되면 우리 뇌가 스스로 사고하고 판단하는 기능을 점차 잃을 것이라고 경고한다.

이유는 이렇다. 인지과학 관점에서 인간 뇌는 ‘인지 구두쇠(cognitive miser)’라는 속성을 지녔다. 본능적으로 에너지를 최소한만 쓰려 한다. 답을 즉시 내주는 도구가 있으면 기꺼이 사고 과정을 생략하려 한다. 스마트폰과 AI는 이런 본능에 최적화된 환경이다. ‘생각하지 않아도 되는’ 순간이 늘어나면서 깊은 이해와 비판적 성찰은 점점 사라진다. 전홍진 삼성서울병원 정신건강의학과 교수는 “복잡하게 생각하는 것을 싫어하고, 추천해주는 것을 무비판적으로 수용하는 현대인의 습관이 뇌의 퇴화를 부른다”고 지적했다.

알고리즘 기술 발전은 현대인이 고민 없이 인공지능(AI)에 결정을 ‘위탁’하는 현상을 가속화시켰다. (게티이미지뱅크 제공)
취향·사고력·행동력을 잃었다

“AI 쓰면 실제 뇌 기능 저하” 연구도

기술이 인간 ‘생각’을 대체하는 속도는 상상을 초월한다. 기술 의존도가 너무 높아지며 발생한 가장 큰 부작용은 역시 인간 고유의 사고력 저하다. 계산기가 보급되며 암산 능력이 퇴화했고 내비게이션 대중화로 공간 인지 능력이 감소한 것처럼, AI는 비판적 사고를 없애는 중이다. 구글 번역이나 파파고로 영문 이메일을 작성하고, 검색창에 자동 완성 기능이 제시하는 단어를 그대로 사용하는 모습은 이제 흔하다. 이용자 언어 감각과 표현력은 점점 떨어진다.

더 큰 문제는 기술이 사고력뿐만 아니라 인간 의지와 행동력마저 나쁜 영향을 미치고 있다는 점이다. 메신저 없이는 의사소통 엄두를 못 내고 내비게이션 지도 앱 없이는 가까운 동네도 외출하기 버거워하는 젊은 세대가 늘어나고 있다. 시도할 생각 자체가 사라지고 있다는 얘기다. 이인아 교수는 “AI 조언을 확인하지 않으면 불안해지는 의존성이 생긴다. 인간은 시행착오 학습 기회를 잃는다”며 “자신감이 줄며 결정 장애가 나타난다”고 지적한다.

알고리즘 기술 발전은 사고 대체 현상을 가속화했다. 추천 알고리즘을 탑재한 각종 플랫폼이 일상화되면서 인간은 선택의 자유를 기술에 위탁하게 됐다. 우연한 클릭 몇 번, 터치 몇 번이 나의 취향으로 굳어지는 일이 비일비재하다. ‘맞춤형 알고리즘’이 전방위로 확산되며 생긴 부작용이다.

예를 들어 넷플릭스는 전체 시청 약 80% 추천 알고리즘에서 발생한다고 밝힌 바 있다. 유튜브 역시 알고리즘 자동 재생을 통해 이용 시간을 늘린다. 웹툰·웹소설 플랫폼도 비슷하다. 소비자가 직접 고르는 선택이 사라지며 다양한 콘텐츠와 우연한 만남 기회가 차단됐다.

한 영화 제작 관계자는 “영화나 드라마, 웹툰 등 콘텐츠 다양성이 사라지고 있는 건 OTT와 플랫폼에서 지원하는 추천 알고리즘과 무관하지 않다.”며 “빅데이터 분석에 기반했다는 명분 아래 제작사와 투자사마다 ‘콘텐츠 성공 방정식’ 같은 걸 뽑아내다 보니 기시감이 드는 작품만 양산되는 중”이라고 설명했다.

쇼핑도 비슷하다. 패션·뷰티 플랫폼은 저마다 ‘AI 맞춤형 추천’ 기능을 탑재했다. 커머스와 배달 앱 역시 고객이 원하는 상품이나 메뉴를 먼저 제안하는 추세로 바뀌는 중이다. 필요에 따라 상품을 검색하는 ‘목적형 쇼핑’에서 알고리즘 추천이나 우연히 노출한 광고 페이지를 통해 구매까지 이어지는 ‘발견형 쇼핑’으로 트렌드가 바뀌고 있다. 인스타그램, 틱톡, 유튜브 등 각종 SNS 플랫폼이 쇼핑 기능을 도입하며 이러한 현상이 더 두드러지는 중이다.

챗GPT를 비롯한 AI 챗봇 대중화는 요즘 인간이 뇌를 꺼버리게 된 가장 큰 요인이 됐다. 대학생 과제나 직장인 보고서 작성 시 별다른 생각 없이 AI에 이렇게 명령한다. “써줘.” 이 과정에서 글쓰기를 비롯한 비판적 사고 능력은 급격히 약화될 수밖에 없다.

연구 결과도 있다. 최근 MIT 미디어랩 연구팀은 AI 도구를 많이 사용할수록 인간 뇌 기능이 점차 약해진다는 결과를 내놨다. 실험은 대학생 54명을 세 그룹으로 나눠 진행했다. AI 언어 모델을 사용한 그룹, 검색엔진만 사용한 그룹, 아무런 기술 도구도 사용하지 않은 그룹으로 나눠 에세이 과제 수행을 주문했다. 연구팀이 각자 뇌 전도를 측정한 결과 ‘아무 도구도 사용하지 않은 그룹’이 가장 활발하고 다양한 뇌 연결성을 보였다. 반대로 AI 사용 그룹은 뇌 연결성이 가장 약했다. 특히 한 학기 동안 AI만 사용한 참가자는 기억력과 창의성은 물론 심지어 과제에 대한 책임감 지표도 유의하게 낮았다.

‘호모 브레인리스’ 저자이자 미국 실리콘밸리 스타트업 감마(Gamma)에서 시니어 GTM 전략 매니저인 안광섭 작가는 “AI는 결국 기존 지식을 빠르게 통합해주는 역할을 할 뿐 진짜 새로운 가치를 창조하는 일은 여전히 인간 몫이다. AI에게 ‘알아서 잘해줘’ 같은 모호한 질문을 던지는 과정에서 인간 희소성이 사라져버린다”며 “새로운 개념을 받아들이는 데 나타나는 심리적 불편함과 도전감이야말로 가장 강력한 창조 동기이자 인간 역량”이라고 말했다.

데이터 함정에 빠지는 기업 경영

“알고리즘, 정치 양극화 원흉” 의견

개인뿐 아니라 조직과 기업, 나아가 사회 전체까지 호모 브레인오프 부작용이 번져 나간다.

먼저, 데이터 함정에 빠지는 기업이 많다. 스타트업과 중소기업 상당수는 인스타그램이나 페이스북 광고 관리자, 구글이나 네이버가 제공하는 트렌드 지표만 보고 마케팅을 설계한다. 자체 조사나 직관적 전략은 사라지고 기업은 플랫폼 알고리즘에 종속된다. 기업 고유의 철학과 희소성도 희미해질 수 있다. 조직은 단순 자동화 성과에 안주하고 고차원·창의적 전략 수립 역량을 잃는다.

국내 한 패션 스타트업 광고 마케팅 담당자는 “기업이 빅데이터 분석 툴로만 소비자 심리를 파악하며 현장 인터뷰나 오프라인 체험 조사가 줄어들고 있다. 이렇게 되면 소비자의 ‘진짜 불만’을 간과하는 결과가 나타날 수 있다”며 “또 SNS 광고 관리자가 제안하는 ‘최적 예산 분배’를 그대로 따르다 보니 광고 크리에이티브 다양성이 실종되고 비슷한 광고만 양산된다”고 말했다.

최근 AI 도입이 가장 활발한 영역 중 하나인 ‘인사 채용’에서도 문제가 발생할 수 있다. 일부 대기업은 효율을 좇아 서류나 인적성 평가를 AI 필터링으로만 처리한다. 하지만 AI는 특정 학교·연령·성별 편향을 내재할 수 있는 가능성이 있는 데다, 맥락을 읽지 못하는 한계가 아직 분명하다. 인사 담당자가 적극 개입하지 않으면 다양성이 훼손되고 또 실제 기업이 원하는 인재를 놓치는 결과를 초래할 수 있다.

AI와 알고리즘이 자본 시장 왜곡도 야기할 수 있다는 우려도 나온다. 예를 들어 특정 종목은 인기 유튜브 재테크 채널이 추천하는 순간 주가가 급등하거나 급락한다. 근거 없는 루머가 SNS 알고리즘을 타고 빠르게 확산될 경우, 개인 투자자의 잘못된 선택이 이어지며 시장 혼란이 발생하기도 한다. 여러 증권사가 제공하는 로보어드바이저 서비스는 수많은 이용자가 AI 추천을 무비판적으로 수용하면서 투자 리스크를 스스로 점검하지 않게 된다.

개인과 조직에 발생한 부작용은 사회 전체 손실로 이어진다. 잘못된 정보 무비판적 수용 → 학습·소비 실패 → 경제·사회적 비용 확대라는 악순환이다. 곽금주 서울대 심리학과 교수는 “AI와 알고리즘 확산은 허위 정보나 왜곡된 판단을 사회 전반에 확산하는 위험을 낳는다”며 “예를 들어 AI가 의사인 양 확인되지 않은 전문 의학 정보를 유통하는 콘텐츠가 이미 범람하고 있다. 사회 전체가 잘못된 기준을 사실로 받아들이게 되며 혼란이 증폭될 수 있다”고 지적했다.

최근 한국의 가장 큰 화두 중 하나로 떠오른 ‘정치 양극화’ 원흉이 AI와 알고리즘이라는 의견이 있다. AI가 단순 취향을 넘어 저마다 지닌 고유한 사상이나 철학마저 고착화시키며 인간 ‘정치적 신념’을 조종하고 극단적으로 이끌어간다는 얘기다.

예를 들어, 한 번 진보 성향 채널을 클릭하면 유튜브는 그 다음부터 계속 유사한 채널만 보여준다. 보수 채널도 마찬가지다. 이용자는 다른 관점에서 비판적 사고를 할 수 있는 기회를 잃고, 자기 정치 성향에 갇혀 신념을 계속 강화해가게 된다. 나와 다른 시각은 배제되고, 사상과 취향이 더욱 공고해지는 편향 효과가 발생한다. 이는 ‘확증 편향’의 전형이다.

한 정치평론가는 “과거에는 적어도 같은 뉴스, 같은 매체를 보고 저마다 다른 정치적 판단을 내렸다. 하지만 이제는 모두 자기 입맛에 맞는 콘텐츠만 소비하고 거슬리는 콘텐츠는 쳐다도 안 보게 됐다”며 “한국 국민 정치 성향이 극좌와 극우로 갈라지고 있는 배경에는 유튜브 자동 추천 알고리즘이 큰 지분을 차지하고 있다”고 봤다.

꺼진 뇌를 다시 켜는 방법은

AI 올바르게 쓰는 법 조기 교육을

모든 병의 가장 기본적인 치료 방법은 발병 원인을 없애거나 최소화하는 데 있다. 호모 브레인오프 시대에 나타나는 여러 부작용도 마찬가지다. 사고를 단축하는 환경으로부터 스스로를 떼어놓는 시간과 노력이 필요하다는 데 전문가 이견이 없다.

이인아 교수는 “생활 전반에 퍼져 있는 AI 추천 시스템으로부터 물리적으로, 의식적으로 거리두기가 필요하다”며 “화면을 바라보는 스크린 타임 줄이기, 스마트폰을 떼어놓는 디지털 기기 사용 제한 등 노력을 통해 모든 사안에 스스로 충분히 비교하고 검토하는 과정을 늘려 나가야 한다”고 말했다.

최근 젊은 세대 사이에서 ‘디지털 디톡스 챌린지’나 명상이 인기를 얻고 있는 이유도 여기 있다. 휴대폰 접촉을 최대한 피하고 출퇴근길에 명상 콘텐츠를 들으며 사유 시간을 늘리려는 시도다.

단기 해법으로는 ‘AI 내 경고 장치’도 제시된다. 이경전 경희대 빅데이터응용학과 교수는 “챗GPT에 ‘실수할 수 있습니다’라는 문구가 붙어 있는 것처럼, AI와 대화 시간이 길어지면 음성으로 경고하는 식의 시스템 도입이 필요하다”며 “술·담배처럼 부작용 경고를 표시하는 규제가 곧 AI에도 전면적으로 시행될 것”이라고 말했다.

그럼에도 불구하고 여러 전문가들은 개인의 노력만으로는 한계가 있다고 지적한다. 전홍진 교수는 “현대인 본능은 복잡한 사고를 꺼리기 때문에 무비판 수용 경향이 강해지고 있다”며 “디지털 디톡스 같은 노력은 잠깐이나마 몰입을 회복할 수는 있어도 근본적인 문제 해결 방법이 될 수는 없다”고 말했다.

AI와 알고리즘 노출에 특히 취약한 어린 시절부터, 조기 교육을 통해 기술을 바라보는 관점을 달리해야 한다는 의견이 힘을 얻는다. ‘AI는 완벽하지 않다’는 사실을 주지시키고 과의존을 막는 방법, 또 개인 사고력을 유지한 채 전략적으로 AI를 활용할 수 있는 방법을 기초 교육 과정에 넣어야 한다는 주장이다. AI 활용법을 넘어, 한계를 명확히 인식할 수 있도록 돕는 ‘AI 리터러시’ 교육 필요성이다.

AI 교육 차원에서 가장 앞선 사례로 꼽히는 국가는 핀란드다. 핀란드는 이미 2014년부터 각종 미디어와 그래픽, 영상 등에 대해 비판적으로 사고할 수 있도록 돕는 ‘멀티리터러시 교육’을 교과 역량에 편입했다. 체육·영어·수학 등 어떤 과목을 가르치든 교사들은 모든 연령대 학생에게 여러 미디어에 대응하는 비판적 사고를 키울 수 있도록 지도한다. 이런 교육 시스템으로 핀란드는 ‘가짜 뉴스 저항성’ 평가 지표인 ‘유럽 미디어 리터러시 지수’에서 6년 연속 1위를 차지하기도 했다.

곽금주 교수는 “AI를 철저히 도구로만 활용해야 한다는 내용의 교육이 어려서부터 필요하다. AI 자료를 참고하되 최종 판단은 반드시 스스로 내리는 습관을 길러야 한다”며 “단순히 AI 정보를 가져다 쓰기보다는 해당 결과를 활용해 자기 논리를 세우고 결론을 도출하는 훈련이 중요하다”고 말했다.

예를 들어 보고서를 작성할 때 AI의 답변을 그대로 옮기는 대신, 반론을 제기하고 자신의 생각과 비교·분석하는 과정을 추가하도록 지도할 수 있다. 또한 AI 기술의 작동 원리와 한계, 부작용을 이해하고 이를 비판적으로 바라보는 능력을 기르는 종합 교육이 필요하다는 목소리도 나온다.

백영선 플라잉웨일 대표는 “AI가 판치는 시대 속 부작용을 줄이기 위해서는 또 다른 AI식 접근, 즉 ‘아날로그 인텔리전스(Analog Intelligence·AI)’ 교육이 병행돼야 한다”며 “스스로 사고하는 힘을 기를 수 있도록 다양한 오프라인 환경에서 직접 경험하고 체험하며 배울 수 있는 기회를 늘려야 한다”고 강조했다.

코딩 교육이 오히려 AI 한계를 명확히 할 수 있는 계기를 줄 수 있다는 주장도 있다. AI를 직접 만들어보는 경험을 통해 ‘기계 역시 오작동할 수 있다’는 사실을 명확히 깨닫게 된다는 점에서다. 이경전 교수는 “챗봇 AI를 생성하는 코드를 직접 짜보면 위험성을 생생히 통감할 수 있다. 기계가 인간의 실수를 그대로 드러내는 모습을 보는 과정에서, AI는 스스로 생각하는 존재가 아니라 인간의 통제하에 있다는 점을 체득할 수 있다”고 말했다.

개인을 넘어 기업과 조직, 사회 측면에서도 AI 가이드라인 필요성이 부각된다. 유럽연합(EU)은 기업 AI 리터러시 확보를 위한 직원 교육을 의무화하고 산업별 특성에 맞는 교육을 시행하도록 하고 있다. EU가 만든 인공지능법(AI Act)은 의료·채용·법률 등 고위험 영역에서 AI가 내린 결정을 반드시 인간이 최종 검토하도록 강제한다. 사회적으로 중대한 분야에서 쓰는 AI는 정확도·안전성 시험 등 엄격한 요건을 충족해야 활용이 가능하도록 규정했다.

인터뷰 | ‘모두 인공지능 백신 맞았는데 아무도 똑똑해지지 않았다’ 저자 유영만 교수
AI 시대, 질문 잘하는 사람이 살아남는다
유영만 한양대 교육공학과 교수는 ‘지식생태학’ ‘모두 인공지능 백신 맞았는데 아무도 똑똑해지지 않았다’의 저자다. 이미 AI 정보 처리 능력이 인간을 뛰어넘은 지금, 인간이 살아남는 길은 ‘지식’의 축적이 아니라 지혜와 해석, 질문 능력을 키우는 데 있다고 단언한다.
Q. 책 제목이 도발적이다. 어떤 문제의식이 담겨 있는지.

A. 기술이 발전할수록 사고(思考)의 주도권이 AI에 넘어가는 현상을 우려한다. 과거에는 궁금증이 생기면 스스로 답을 찾으려 백방으로 노력했지만, 지금은 고민도 없이 AI에 사고를 아웃소싱(외주화)하고 있다. 그렇게 얻은 답변은 절대 오래 남지 않는다.

Q. 실제 교육 현장에서 이런 현상을 자주 목격하나. 단순히 AI를 쓰지 않는다고 해결될지.

A. 과제를 내면 꽤 많은 학생이 각자의 생각이나 경험이 전혀 반영되지 않은 답변을 제출한다. 고민 없이 AI가 준 답만 ‘복붙’한 결과다. 우리 생활 전반에 나타나는 현상이지만 학생이 사고의 주도권을 잃어버리는 현상을 교육 현장에서 특히 심각하게 보고 있다. 그래도 AI를 안 쓰는 것보다는 잘 쓰는 게 관건이다. 앞으로 AI를 적당히 쓰는 사람, 창의적으로 활용하는 사람, 의존만 하는 사람 등 다양한 유형이 등장할 것이다. 발전한 기술을 피할 필요는 없지만 인간이 주도적으로 활용하려는 태도가 중요하다. 그 시작은 ‘정답을 좇지 말고 좋은 질문을 던지는 것’이다.

Q. 질문을 특히 강조하는 이유는? 질문을 잘하려면?

A. 우스갯소리로 조만간 생성형 AI 계정을 사고파는 시대가 온다고 한다. 일 잘하는 사람이 AI에 어떤 질문을 던지는지 배우기 위해 그 계정을 ‘웃돈’ 주고 산다는 말이다. AI가 발달할수록 사람은 질문의 수준으로 경쟁력이 판가름 난다는 의미다. 그런데 애초에 질문을 잘하려면 폭넓은 교양과 기반 지식이 필요하다. 좋은 질문은 ‘기술’이 아니라 자기 분야에 대한 깊은 이해와 관심과 애정에서 나온다. 당연하다고 생각했던 것에 반문하는 연습, 다양한 사람을 만나고, 다양한 분야의 책을 읽고 경험을 통해 사고의 폭을 넓히는 훈련이 필요하다.

Q. 다소 막연하게 들리는데, 우리가 당장 실천해볼 수 있는 것은?

A. 자주 보지 않던 사람을 만나거나, 새로운 분야의 책을 읽고, 가보지 않은 곳을 방문해보는 것을 추천한다. 늘 지하철을 타고 집~회사만 오갔다면, 하루는 버스, 다음 날은 자전거로 이동해보는 식이다. 삼천포로 빠져도 좋다. 익숙한 루틴을 깨는 것만으로도 뇌에는 좋은 외부 자극이 된다. 생각만 달리한다고 행동이 변하지는 않지만, 달리 행동하면 당장 생각이 바뀐다.

[정다운·나건웅 기자 지유진·양유라 인턴기자]

[본 기사는 매경이코노미 제2330호 (2025.10.15~10.21일자) 기사입니다]

[Copyright (c) 매경AX. All rights reserved. 무단 전재, 재배포 및 AI학습 이용 금지]

Copyright © 매경이코노미. 무단전재 및 재배포 금지.