인스타 '노출 사진' AI로 잡아낸다…청소년 보호 강화

이지현 기자 2024. 4. 11. 22:11
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

인스타그램이 과도한 노출 사진이나 성 착취 범죄 등으로부터 청소년을 보호할 수 있는 기능을 개발 중이라고 밝혔다. 〈사진=Meta 홈페이지〉
━━━━━━━━━
인스타그램이 과도한 노출 사진이나 성 착취 범죄 등으로부터 청소년을 보호할 수 있는 기능을 개발 중이라고 11일(현지시간) 밝혔습니다.

인스타그램 모기업인 메타플랫폼은 인스타그램 다이렉트 메시지(DM) 시스템에서 나체 사진이 감지되면 이미지를 흐리게 처리할 수 있는 인공지능(AI) 기반 툴을 시험 중입니다.

흐린 이미지 위에 경고 화면이 뜨고 수신자는 이를 볼지 말지 선택할 수 있습니다. 원치 않는 나체 사진에 노출되는 걸 방지하는 겁니다.

메타는 전 세계 미성년자에게는 이런 기능이 자동으로 적용되게 하고, 성인에게는 알림을 보내 이 기능을 적용하도록 권장할 예정입니다.

또 나체 사진을 보낸 사람을 차단하고 채팅을 신고할 수 있는 옵션을 제공할 예정입니다.

잠재적으로 성 착취 사기에 연루될 수 있는 계정을 식별하는 데 도움을 주는 기술도 개발 중이라고 메타는 밝혔습니다.

성 착취 행위로 볼 수 있는 다양한 신호들을 기반으로 계정을 식별해, 미성년자가 이들과 교류하는 걸 예방하겠다는 겁니다.

메타는 지난 1월 미성년자가 유해 콘텐트에 노출되지 않도록 해당 콘텐트를 자동으로 차단하는 방안을 마련하겠다고 발표한 바 있습니다.

이번 조치는 메타에 대한 미국 정부의 압박이 거세지는 상황에서 나온 것입니다.

앞서 지난해 10월 미국 내 41개 주 정부는 인스타그램 등이 과도한 중독성을 갖도록 설계돼 미성년자의 정신건강에 피해를 주고 있다며 메타를 상대로 소송을 제기했습니다.

Copyright © JTBC. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?