인스타그램, ‘노출 사진’ AI로 잡아낸다…청소년 보호 강화

2024. 4. 11. 21:13
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

미성년자의 정신건강에 악영향을 주고 있다는 이유로 미국에서 소송 압박을 받는 사회관계망서비스(SNS) 인스타그램이 11일(현지시간) 청소년 보호 강화 장치를 내놨다.

이 같은 조치는 미국 당국의 압박이 가중되는 상황에서 나온 것으로, 지난해 10월 미국 내 41개 주 정부는 인스타그램 등이 과도한 중독성을 갖도록 설계돼 미성년자의 정신건강에 피해를 주고 있다며 메타를 상대로 소송을 제기했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

DM에서 미성년자에 노출 사진 전송되면 흐리게 처리
인스타그램 로고 [AP]

[헤럴드경제=정목희 기자] 미성년자의 정신건강에 악영향을 주고 있다는 이유로 미국에서 소송 압박을 받는 사회관계망서비스(SNS) 인스타그램이 11일(현지시간) 청소년 보호 강화 장치를 내놨다.

인스타그램 모기업인 메타플랫폼(이하 메타)은 인스타그램에서 과도한 노출 사진, 성 착취 범죄 등으로부터 청소년들을 보호하고 잠재적 범죄자와 청소년의 접촉을 어렵게 만드는 새로운 기능을 개발 중이라고 밝혔다.

메타는 인스타그램 다이렉트 메시지(DM) 시스템에서 미성년자에게 전송되는 누드 이미지를 자동으로 감지해 흐리게 처리할 수 있는 인공지능(AI) 기반의 툴을 시험 중이라고 설명했다.

나체 사진이 포함된 이미지를 받으면 경고 화면에서 자동으로 흐리게 처리된다. 수신자는 이미지를 접하지 않은 상태에서 이를 볼지 말지 선택할 수 있다. 이 기능은 18세 미만의 사용자에게는 기본으로 적용되며 성인에게는 알림을 보내 이 기능을 적용하도록 권장된다.

메타는 또 이러한 이미지를 보낸 사람을 차단하고 채팅을 신고할 수 있는 옵션을 제공하고, 이런 식으로 접근하는 사람에겐 응하지 않아도 된다는 안내 메시지도 표시한다.

이와 함께 메타는 잠재적으로 성 착취 사기에 연루될 수 있는 계정을 식별하는 데 도움이 되는 기술을 개발 중이라고 밝혔다.

메타는 지난 1월 미성년자가 유해 콘텐츠에 노출되지 않도록 해당 콘텐츠를 자동으로 차단하는 방안을 마련할 예정이라고 발표한 바 있다.

이 같은 조치는 미국 당국의 압박이 가중되는 상황에서 나온 것으로, 지난해 10월 미국 내 41개 주 정부는 인스타그램 등이 과도한 중독성을 갖도록 설계돼 미성년자의 정신건강에 피해를 주고 있다며 메타를 상대로 소송을 제기했다.

mokiya@heraldcorp.com

Copyright © 헤럴드경제. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?