구글·메타·오픈AI 등 빅테크, '아동 성적 학대 자료 확산 제한' 원칙에 서명

현대인 2024. 4. 24. 13:52
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

글로벌 빅테크 기업들이 인공지능(AI) 모델의 아동 성적 학대 자료(CSAM) 확산을 제한하기 위한 새로운 원칙인 'Safety by Design'에 서명했다고 월스트리트저널(WSJ)이 23일(현지시간) 보도했다.

해당 보고서를 작성한 연구자들에 따르면, 아동 성 착취 자료 확산 방지를 위해 활동하는 미국 국립실종학대아동센터(NCMEC)는 AI가 생성한 막대한 CSAM을 처리하는 데 애를 먹고 있다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

구글, 메타(옛 페이스북), 챗GPT 개발사 오픈AI 등 11개 기업과 2개의 비영리 단체가 인공지능(AI) 모델의 아동 성적 학대 자료(CSAM) 확산을 제한하기 위한 새로운 원칙인 'Safety by Design'에 서명했다. [사진=스론 웹사이트 갈무리]

글로벌 빅테크 기업들이 인공지능(AI) 모델의 아동 성적 학대 자료(CSAM) 확산을 제한하기 위한 새로운 원칙인 'Safety by Design'에 서명했다고 월스트리트저널(WSJ)이 23일(현지시간) 보도했다.

구글, 메타(옛 페이스북), 챗GPT 개발사 오픈AI 등 11개 기업과 2개의 비영리 단체가 해당 원칙에 동의했다.

이들은 △학습 데이터셋에 CSAM 제외 △CSAM을 포함할 위험이 높은 데이터셋 방지 △데이터 원본에서 CSAM 이미지 또는 CSAM 링크 삭제 △AI 모델이 CSAM 이미지를 생성하지 않도록 '스트레스 테스트'를 수행하고 아동에 안전하다고 평가된 모델을 출시할 것을 약속했다.

생성형 AI는 CSAM 사진 등 딥페이크 이미지를 온라인상에 확산시켜왔다.

스탠퍼드 인터넷 감시소(Internet observatory)는 지난해 12월 일부 AI 모델의 훈련용 데이터셋에 CSAM 사진 링크가 포함됐다는 내용을 담은 보고서를 발표한 바 있다. 해당 보고서를 작성한 연구자들에 따르면, 아동 성 착취 자료 확산 방지를 위해 활동하는 미국 국립실종학대아동센터(NCMEC)는 AI가 생성한 막대한 CSAM을 처리하는 데 애를 먹고 있다.

'Safety by Design' 원칙에 참여한 구글은 원칙 준수 외에도 NCMEC의 활동을 홍보하기 위해 광고 보조금을 늘렸다.

수잔 재스퍼 구글 신뢰 및 안전 솔루션 담당 부사장은 “이러한 캠페인을 지원하면 대중의 인식이 높아지고, 악용 사례를 식별하고 신고할 수 있는 도구를 제공할 수 있다”고 말했다.

현대인 기자 modernman@etnews.com

Copyright © 전자신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?