[사이언스 톡] 인공지능 탓? 혹시 핑계 아닌가

2025. 11. 6. 16:02
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

과학 연구나 과학계 이슈의 의미를 이해하기 쉽게 설명하고, 우리 사회의 다양한 일들을 과학의 눈으로 분석하는 칼럼 '사이언스 톡'이 3주에 한 번씩 독자들을 찾아갑니다.

AI가 보편화하면서 껄끄러운 일, 책임질 일, 잘못한 일들을 AI 탓으로 돌리려는 경향이 생기고 있다.

작년 발표한 논문에서 국내 연구진은 도덕적으로 비난받을 일을 한 AI를 어떻게 생각하는지, AI·개발자·기업·정부에 얼마만큼 책임이 있는지를 실험 참가자들에게 물었다.

음성재생 설정 이동 통신망에서 음성 재생 시 데이터 요금이 발생할 수 있습니다. 글자 수 10,000자 초과 시 일부만 음성으로 제공합니다.
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

껄끄러운 일 AI 탓으로 돌리는 경향
예상 가능한 피해도 AI 오류로 포장
AI 영향 객관적·상식적으로 평가를
편집자주
과학 연구나 과학계 이슈의 의미를 이해하기 쉽게 설명하고, 우리 사회의 다양한 일들을 과학의 눈으로 분석하는 칼럼 ‘사이언스 톡’이 3주에 한 번씩 독자들을 찾아갑니다.
아마존이 대규모 감원 계획을 발표한 10월 28일(현지시간) 아일랜드 더블린에 있는 아마존 사무실에서 한 직원이 걸어 나오고 있다. 로이터 연합뉴스

아마존이 지난달 직원 1만4,000명을 잘랐다고 한다. 대규모 감원의 이유는 '인공지능(AI) 기술 혁신'이었다. 더 빠르고 효율적으로 일하는 AI가 있으니 조직의 군살을 빼겠다는 것이다. 인간이 하루아침에 실업자가 되는 모습이 AI가 발전하면서 예상됐던 일로 받아들여지고 있다. 이번 주 IBM도 수천 명 감원을 예고했고, 지난달 UPS는 4만8,000명을 줄였다고 밝혔다. 9월 세일즈포스는 4,000명을 내보냈다고 했고, 루프트한자도 2030년까지 일자리 4,000개를 줄이겠다고 발표했다.

해고의 이유가 순전히 AI 때문일까. 일각에선 진짜 이유는 따로 있는 것 아니냐는 의구심이 나온다. 글로벌 경기 둔화, 미국 관세를 비롯한 무역 불확실성, 긍정적 사업 전망에 따른 과잉 고용 등 여러 요인으로 회사가 어려워지자 위기 극복 방안을 내놓거나 과거 실책을 인정하는 대신 AI를 내세워 감원이라는 쉬운 길을 택한다는 시각이다. 회사가 받아야 할 비난, 경영진이 져야 할 책임을 AI에 떠넘기면서 해고를 교묘하게 정당화, 합리화하는 건 아닌지 생각해볼 대목이다. 이를 의식했는지 아마존은 며칠 만에 감원 이유를 '조직 문화' 때문이라고 둘러댔다.

AI가 보편화하면서 껄끄러운 일, 책임질 일, 잘못한 일들을 AI 탓으로 돌리려는 경향이 생기고 있다. 생성형AI가 논란이 되는 답변을 내놓을 때 개발 기업은 의도적인 게 아니라 AI의 예측 불가능성 때문이라는 태도를 보이곤 했다. 미국에선 판례를 분석할 때 AI를 이용한 변호사들이 오류가 밝혀지자 고의가 아니었고 AI가 잘못 답할 줄 몰랐다고 해명했다. 학생들의 과제 표절 여부를 AI로 탐지하면서 스스로 과제를 한 학생들까지 의심한 대학과 교수도 그저 AI의 판단이라고 했다.

AI 탓이란 설명이 먹히면 예방이나 예측이 가능한 피해마저 AI의 오류로 포장되면서 아무도 책임지지 않는 상황이 늘 수 있다. AI를 설계하고 개발한 사람, AI 서비스를 선택하고 구매한 사람과 어디에 어떻게 사용할지 결정한 사람, AI로 실제 일을 한 사람 등 관여하는 이들은 많지만, 누구에게 얼마나 책임이 있는지는 불분명하다. ‘책임 공백’이 AI를 좋은 핑계거리로 만들 수 있다.

이런 부작용은 과학적으로도 입증되고 있다. 작년 발표한 논문에서 국내 연구진은 도덕적으로 비난받을 일을 한 AI를 어떻게 생각하는지, AI·개발자·기업·정부에 얼마만큼 책임이 있는지를 실험 참가자들에게 물었다. 결론은 AI를 사람과 유사한 존재로 인식할 경우 AI에 대한 비난은 증가하는 반면, 인간 이해관계자에 대한 비난은 감소한다는 것이었다. 자료 준비를 시키고 대화를 나누는 등 AI가 의인화하는 상황이 사람의 책임을 희석시키는 기회가 될 수 있다는 의미다.

지난해 오스트리아 연구진은 AI 기반 앱으로 사진 속 버섯이 식용인지 아닌지 분류한 실험 참가자들이, 잘못된 분류 때문에 독버섯을 먹은 사람이 중독된 가상의 이야기를 읽은 뒤 보인 반응을 분석한 논문을 냈다. 참가자들은 AI가 근거를 설명하지 않았을 땐 AI를 비난했지만, AI가 근거를 제시했거나 사람이 판단에 개입할 여지가 있었을 땐 사람에게 더 책임을 돌렸다. AI에게 일을 맡기더라도 사람의 책임 범위를 고민해야 하는 이유를 보여줬다.

AI 때문에 해고됐다는 이들이 쏟아지는데, 이번 APEC에서 AI 혜택 확산을 골자로 한 경주 AI 이니셔티브가 채택됐다는 게 아이러니컬하다. AI의 영향을 평가할 객관적이고 상식적인 방법을 찾아야 할 때다.

임소형 미래기술탐사부장 겸 과학전문기자 precare@hankookilbo.com

Copyright © 한국일보. 무단전재 및 재배포 금지.