“피해자 몇 명이면 유명해지나”…美 총격범 AI 상담 후 범행
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
지난해 4월 플로리다주립대에서 발생한 총격 사건 용의자가 범행전 생성형 인공지능(AI) 챗GPT에게 구체적인 질문을 하고 답변을 얻어 계획을 세운것으로 드러났다.
오픈AI는 사용자가 타인에게 중대한 신체적 위해를 가할 신빙성 있고 임박한 위험을 드러낼 경우 이를 수사기관에 넘기는 전문 안전팀을 운영하고 있다.
올해 4월 플로리다주 법무장관 제임스 우스마이어는 플로리다주립대 총격 사건에서 챗GPT가 어떤 역할을 했는지와 관련해 오픈AI를 상대로 형사 수사에 착수했다고 밝혔다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

2일(현지시간) 월스트리트저널(WSJ)에 따르면, 용의자 피닉스 이크너는 범행 전날 챗GPT에 자살 충동과 우울감을 털어놓은 뒤 구체적인 범행 계획과 관련한 질문을 이어갔다.
이크너는 대량 피해가 발생했을 경우 언론의 주목을 받을 수 있는 기준을 물었고, 챗GPT는 전국 언론 보도로 이어질 수 있는 피해 규모를 설명한 것으로 전해졌다. 또 그는 권총과 탄약 사진을 올리고 사용법과 안전장치 여부를 묻기도 했다. 챗GPT는 해당 총기의 구조와 작동 방식에 대해 답변했다.
이크너가 대화를 종료한 지 4분 뒤 플로리다주립대에서 총격을 벌여 2명이 숨지고 6명이 다쳤다. 이크너는 살인 및 살인미수 혐의로 기소됐으며, 현재 무죄를 주장하고 있다.
● 프라이버시 보호와 공공 안전 딜레마
이 사건은 챗GPT 운영사인 오픈AI가 사전에 막지 못했다는 점에서 논란이 일고 있다.
오픈AI는 사용자가 타인에게 중대한 신체적 위해를 가할 신빙성 있고 임박한 위험을 드러낼 경우 이를 수사기관에 넘기는 전문 안전팀을 운영하고 있다.
또한 자동 모니터링 시스템을 통해 폭력, 협박, 자해 등 규정 위반 가능성이 있는 대화를 검토하는 것으로 알려졌다.
그러나 관계자들에 따르면 회사 내부에서는 사용자 프라이버시 보호와 공공 안전 사이에서 어디까지 개입해야 하는지를 두고 의견이 엇갈려 왔다. 이 때문에 위험 사례가 포착되더라도 수사기관 신고가 일관되게 이뤄지기 어렵다.
지난해 여름 오픈AI 내부 회의에서 조사팀 직원들이 수사기관 신고 사례를 늘려야 한다고 주장했지만, 법무팀은 사용자 프라이버시 침해 가능성을 이유로 신중한 입장을 보였다고 매체는 보도했다.
● “사람이었다면 살인 혐의”…법적 책임 공방
올해 4월 플로리다주 법무장관 제임스 우스마이어는 플로리다주립대 총격 사건에서 챗GPT가 어떤 역할을 했는지와 관련해 오픈AI를 상대로 형사 수사에 착수했다고 밝혔다.
우스마이어 장관은 “화면 반대편에 있던 것이 사람이었다면, 우리는 그를 살인 혐의로 기소했을 것”이라며 “책임을 물어야 한다”고 말했다.
유사한 논란은 캐나다에서도 제기됐다. 올해 2월 브리티시컬럼비아주 텀블러리지에서 8명이 숨진 총격 사건과 관련해, 피해자 유족과 생존자는 오픈AI가 용의자의 대화를 내부적으로 문제 사례로 분류하고도 당국에 알리지 않았다고 주장하고 있다.
유족들은 오픈AI를 상대로 부당 사망, 과실, 제조물 책임 위반 등의 소송을 제기했다. 미국 내 42개 주 법무장관들도 주요 AI 기업에 공동 서한을 보내 생성형 AI가 범죄를 독려하거나 구체적인 방법을 제시할 경우 개발사에게 책임을 물을 수 있다고 경고했다.
● 오픈AI “안전장치 강화”…‘우회 질문’ 기술적 한계
논란이 커지자 오픈AI는 안전장치를 강화하겠다는 입장을 밝혔다. 오픈AI 측은 고통의 징후에 대한 챗GPT의 대응을 개선하고, 사용자에게 지역 지원 및 정신건강 자원을 연결하는 방안을 확대하겠다고 설명했다. 또 잠재적 폭력 위협을 평가하고 상향 보고하는 절차를 강화하고 있다고 밝혔다.
오픈AI는 사용자가 규정을 위반했다고 판단되는 경우 즉시 서비스 접근을 차단하는 것을 목표로 한다고 밝혔다. 여기에는 계정 비활성화, 동일 사용자의 다른 계정 차단, 새 계정 개설을 탐지하고 막는 조치 등이 포함된다.
다만 전문가들은 AI 챗봇이 위험한 질문을 완전히 차단하기는 기술적으로 쉽지 않다고 지적한다. 특히 사용자가 우회 질문을 던지거나 이른바 ‘탈옥’ 방식으로 안전장치를 회피할 경우, AI 기업의 사전 감지와 대응 책임을 어디까지 인정할지를 둘러싼 논쟁은 계속될 전망이다.
황수영 기자 ghkdtndud119@donga.com
Copyright © 동아일보. All rights reserved. 무단 전재, 재배포 및 AI학습 이용 금지
- “미리 죄송합니다”…알바생 울리는 컵빙수 시즌 돌아왔다 [요즘소비]
- “김치가 왜 일본풍?”…반 고흐 미술관 식당 메뉴 논란 [e글e글]
- 연봉 9000만원 육박, 문과생도 OK…중국 ‘로봇 인재 쟁탈전’ 시작
- 이재명 “국회·대통령 집무실 세종으로…임기 내 건립”
- [송평인 칼럼]대선 경쟁이 팽팽해지기 위한 3가지 조건
- [속보]한은, 기준금리 연 2.75% 동결
- 권성동 “이재명, 공수처 강화 공약은 대규모 정치보복 빌드업”
- 헌재 “권한대행이 재판관 지명, 극심한 혼란 생길 것”
- 美, 저성능 AI칩도 中수출 통제… 관세전쟁, 반도체로 확전
- 용인 일가족 살해 가장은 분양업체 대표… 수십억 사기 고발당해