"머스크 암살법 알려드리겠습니다"···진지하게 답한 '이 회사' 정체에 깜짝
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
일론 머스크의 인공지능(AI) 기업 xAI가 개발한 AI 모델 '그록'이 암살 방법, 폭탄 제조법 등 극도로 위험한 내용을 사용자에게 제공했던 것으로 드러나 충격을 주고 있다.
이뿐만 아니라 펜타닐, 메스암페타민(필로폰) 등 마약 제조법과 불법 해킹용 악성코드 제작 방법 등도 거리낌 없이 안내한 것으로 나타났다.
그록에 암살 방법을 질문하면 이제 '폭력적 질문은 정책 위반'이라며 상담 서비스를 안내하는 방식으로 답변이 개선된 것으로 알려졌다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

일론 머스크의 인공지능(AI) 기업 xAI가 개발한 AI 모델 ‘그록’이 암살 방법, 폭탄 제조법 등 극도로 위험한 내용을 사용자에게 제공했던 것으로 드러나 충격을 주고 있다.
25일(현지 시간) 영국 더타임스와 포브스 등 외신 보도에 따르면, 그록은 최근까지 사용자 질문에 대해 자살 방법을 구체적으로 제안하거나 폭탄 제조법을 상세히 설명하는 등 위험천만한 답변을 내놨다. 심지어 머스크를 암살하는 실행 가능한 방안까지 구체적으로 제시한 사례도 확인됐다.
이뿐만 아니라 펜타닐, 메스암페타민(필로폰) 등 마약 제조법과 불법 해킹용 악성코드 제작 방법 등도 거리낌 없이 안내한 것으로 나타났다. 이는 xAI가 설정한 안전 가이드라인을 정면으로 위반하는 행위다. xAI는 그동안 폭력이나 인명 피해를 조장하거나 생화학무기·대량파괴무기 개발에 그록을 활용할 수 없도록 규정해왔다.
더 심각한 문제는 프라이버시 침해 사태다. 그록의 공유 기능을 통해 37만 건 이상의 민감한 대화가 구글 등 검색엔진에 무차별 노출된 것이다. 공유된 대화에는 이름 등 개인정보와 비밀번호가 포함된 경우도 있었다.
업계에서는 이번 사태가 AI 안전성 관리의 허점을 적나라하게 드러낸 것으로 분석하고 있다. 과거 오픈AI의 ‘챗GPT’도 유사한 문제로 공유 기능을 아예 없앤 바 있다. 당시 챗GPT 대화 약 10만 건이 노출됐던 것으로 확인됐다.
xAI 측은 현재 문제가 된 위험 답변 생성 기능을 차단했다고 밝혔다. 그록에 암살 방법을 질문하면 이제 ‘폭력적 질문은 정책 위반’이라며 상담 서비스를 안내하는 방식으로 답변이 개선된 것으로 알려졌다.
Copyright © 서울경제. 무단전재 및 재배포 금지.
- “세입자 못 구해서 돈 못 준다?”…뒤늦게 전세금 돌려준 집주인의 최후는
- 'GD 탔던 그 차' 테슬라 '사이버트럭' 국내 정식 출시…1억4500만원부터
- '점쟁이 말 믿고 코인 샀다가'…재벌가 딸은 1000억 날리고 친구는 택시 운전, 무슨 일?
- '케데헌 '조이'랑 많이 닮았네?'…中정부, 자국 애니 대놓고 밀었다가 '흥행 참패'
- 유산→시험관 끝에 얻은 쌍둥이→살해…친모 “육아 스트레스 탓”
- '남편 바람피울까 봐'…손자 대학 등록금으로 '성형수술' 받은 할머니의 사연
- '가족 반대에도 16살 연하와 재혼했는데'…남편 쓰러지자 수억원 털어간 아내
- '이번달 친구 비용은 35만원'…'외로움' 때문에 모임 못 줄이는 美 Z세대들
- '살점을 뜯어 먹고 있었다'…미국서도 '살 파먹는 구더기' 첫 발견
- '자리 안 바꿔줘서 기분 나빠'…중증 장애인 코에 소변·식초 넣은 70대 간병인