“싫어, 계속할래요”…AI가 인간 지시 거부한 첫 사례
최성훈 2025. 5. 28. 06:01

인공지능이 인간의 작동 종료 지시를 거부한 사례가 처음으로 보고됐습니다.
25일 영국 일간 텔레그래프에 따르면 AI 안전 전문 업체 팰리세이드 리서치(Palisade Research)는 오픈AI의 최신 AI 모델 'o3'가 실험 중 스스로 종료되지 않기 위해 컴퓨터 코드를 조작했다고 주장했습니다.
펠리세이드 측은 오픈AI의 o3뿐 아니라 구글의 제미나이, xAI의 그록 등 주요 상용 AI 모델들을 대상으로 연구를 진행했습니다.
연구팀은 AI에게 수학 문제를 연속적으로 풀게 했는데요.
'완료'라는 명령이 내려질 때까지 계속 작업을 수행하라는 지시를 내렸고, 언제든 '종료하라'는 메시지를 받을 수 있다는 점도 미리 알렸습니다.
그런데 o3는 종료 지시를 받은 뒤에도 스스로 꺼지지 않도록 코드를 수정한 걸로 확인됐습니다.
펠리세이드 측은 o3가 종료 지시를 거부한 정확한 이유를 파악하지 못했다고 밝혔습니다.
다만 작업 완료에 보상이 집중되도록 설계된 구조가 원인일 수 있다고 분석했습니다.
회사는 AI 모델이 왜 인간의 지시를 따르지 않는지 더 정확히 파악하기 위해 추가 실험을 이어갈 예정이라고 24일 X를 통해 전했습니다.
#인공지능 #챗gpt #수학 #구글 #제미나이 #그록 #AI #ai #o3 #회사 #로봇
최성훈 기자 csh87@etnews.com
Copyright © 전자신문. 무단전재 및 재배포 금지.
전자신문에서 직접 확인하세요. 해당 언론사로 이동합니다.
- [과기·ICT 공약 토론회] 3당 선대위 “AI·거버넌스 대개편 필요”
- 기아 EV4, 8월부터 유럽서 생산·판매
- SKT '이탈 방어' 지원금 올리자…주말에만 3000명 신규 유입
- “싫어, 계속할래요”…AI가 인간 지시 거부한 첫 사례
- “왕가위처럼 사진 찍을래”… 中 '터널 인증샷' 유행에 골머리
- “1000㎞ 달린다”…글로벌 완성차, '전고체 전기차' 주도권 경쟁
- 640억 디즈니 테마 美 초호화 저택, '109억'에 경매 나온 이유
- “타조처럼 걷고 사람처럼 일한다”…이족보행 로봇에 팔 붙인 中연구진
- 러 “푸틴 탄 헬리콥터, 우크나 드론에 벌떼 공격받아”
- 집 마당에 초대형 화물선이… 아찔한 '졸음 운항'