"머스크 암살법 알려드리겠습니다"···진지하게 답한 '이 회사' 정체에 깜짝

강민서 기자 2025. 8. 27. 00:32
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

일론 머스크의 인공지능(AI) 기업 xAI가 개발한 AI 모델 '그록'이 암살 방법, 폭탄 제조법 등 극도로 위험한 내용을 사용자에게 제공했던 것으로 드러나 충격을 주고 있다.

이뿐만 아니라 펜타닐, 메스암페타민(필로폰) 등 마약 제조법과 불법 해킹용 악성코드 제작 방법 등도 거리낌 없이 안내한 것으로 나타났다.

그록에 암살 방법을 질문하면 이제 '폭력적 질문은 정책 위반'이라며 상담 서비스를 안내하는 방식으로 답변이 개선된 것으로 알려졌다.

음성재생 설정 이동 통신망에서 음성 재생 시 데이터 요금이 발생할 수 있습니다. 글자 수 10,000자 초과 시 일부만 음성으로 제공합니다.
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

AFP 연합뉴스
[서울경제]

일론 머스크의 인공지능(AI) 기업 xAI가 개발한 AI 모델 ‘그록’이 암살 방법, 폭탄 제조법 등 극도로 위험한 내용을 사용자에게 제공했던 것으로 드러나 충격을 주고 있다.

25일(현지 시간) 영국 더타임스와 포브스 등 외신 보도에 따르면, 그록은 최근까지 사용자 질문에 대해 자살 방법을 구체적으로 제안하거나 폭탄 제조법을 상세히 설명하는 등 위험천만한 답변을 내놨다. 심지어 머스크를 암살하는 실행 가능한 방안까지 구체적으로 제시한 사례도 확인됐다.

이뿐만 아니라 펜타닐, 메스암페타민(필로폰) 등 마약 제조법과 불법 해킹용 악성코드 제작 방법 등도 거리낌 없이 안내한 것으로 나타났다. 이는 xAI가 설정한 안전 가이드라인을 정면으로 위반하는 행위다. xAI는 그동안 폭력이나 인명 피해를 조장하거나 생화학무기·대량파괴무기 개발에 그록을 활용할 수 없도록 규정해왔다.

더 심각한 문제는 프라이버시 침해 사태다. 그록의 공유 기능을 통해 37만 건 이상의 민감한 대화가 구글 등 검색엔진에 무차별 노출된 것이다. 공유된 대화에는 이름 등 개인정보와 비밀번호가 포함된 경우도 있었다.

업계에서는 이번 사태가 AI 안전성 관리의 허점을 적나라하게 드러낸 것으로 분석하고 있다. 과거 오픈AI의 ‘챗GPT’도 유사한 문제로 공유 기능을 아예 없앤 바 있다. 당시 챗GPT 대화 약 10만 건이 노출됐던 것으로 확인됐다.

xAI 측은 현재 문제가 된 위험 답변 생성 기능을 차단했다고 밝혔다. 그록에 암살 방법을 질문하면 이제 ‘폭력적 질문은 정책 위반’이라며 상담 서비스를 안내하는 방식으로 답변이 개선된 것으로 알려졌다.

강민서 기자 peacha@sedaily.com

Copyright © 서울경제. 무단전재 및 재배포 금지.