“AI의 비동의 성적 이미지 생성 막아야”···개보위, 국제 공동선언 참여

‘그록’ 등 생성형 인공지능(AI) 서비스를 악용한 비동의 성적 이미지 생성·확산이 국제적 문제로 번지자 각국 개인정보 감독기구들이 공동 대응에 나섰다.
개인정보보호위원회는 국제 개인정보 감독기구 협의체(GPA) 차원의 ‘AI 생성 콘텐츠와 개인정보 보호에 관한 공동선언문’ 채택에 참여했다고 23일 밝혔다. SNS 플랫폼 엑스가 자체 AI ‘그록’을 통한 이미지 편집 기능을 추가한 이후 성적 허위 이미지(딥페이크)가 손쉽게 생성·유포되며 국제사회의 비판이 커진 데 따른 조치다.
선언문은 “널리 접근 가능한 소셜미디어 플랫폼과 결합한 AI 이미지·영상 생성 기술의 발전으로 인해 실제 인물을 대상으로 한 비동의 친밀 이미지, 명예훼손적 묘사, 기타 유해한 콘텐츠의 생성이 가능해졌다”고 지적했다. 이어 “우리는 특히 사이버폭력 및 착취 등 아동과 기타 취약 계층에게 발생할 수 있는 잠재적 피해에 대해 각별한 우려를 표명한다”고 밝혔다.
선언문에는 AI 시스템 개발·활용 기관이 준수해야 할 4가지 핵심 원칙이 포함됐다. 구체적으로는 개인정보 오남용 및 동의 없는 성적 콘텐츠의 생성을 방지하기 위한 안전조치 이행, AI 시스템의 이용 가능 범위 등에 대한 투명성 확보, 신속한 신고 및 삭제를 위한 효과적인 구제 절차 마련, 연령 적합 정보 제공 등 아동·청소년에 대한 강화된 보호조치 이행이다.
각국 감독기구는 ‘신뢰할 수 있는 AI 혁신’이라는 공동 가치를 실현하기 위해 정책·집행·교육 등 대응 경험을 공유하고 연대를 강화하기로 했다.
이번 선언문은 GPA 산하 국제집행협력 작업반 주도로 마련됐다. 한국, 프랑스, 영국, 싱가포르, 캐나다, 유럽연합(EU) 등 52개 회원국의 개인정보 감독기구가 서명에 참여했다. 개인정보위는 “이번 선언은 실제 인물이 당사자의 동의 없이 묘사·확산되는 프라이버시 위협에 대해 국제 사회가 신속하고 일관된 목소리를 냈다는 점에서 의의가 크다”고 말했다.
지난 10일에는 방송미디어통신심의위원회가 국제기구들과 함께 여성과 아동을 표적 삼아 비동의 나체 이미지를 생성하도록 설계된 ‘AI 누드화 도구’의 전면 금지를 요구하는 성명을 발표했다. 이들은 “누드화 도구는 성착취·갈취·피해를 부채질함에도 불구하고 아무런 제재 없이 널리 사용되고 있다”며 개발·배포·사용에 대한 법적 금지를 촉구했다.
https://www.khan.co.kr/article/202602171114001
노도현 기자 hyunee@kyunghyang.com
Copyright © 경향신문. 무단전재 및 재배포 금지.
- ‘윤석열을 파면한다’ 문자 노출한 치킨점에 이행강제금 부과···인천 남동구 “옥외광고물
- “일 홋카이도에서 규모9 지진 발생 임박···400년 만의 초대형 지진”
- 금 3000돈 들고 잠적한 금은방 업주 지인 구속···“증거인멸·도주 우려”
- ‘실물 교도소’ 보존 공간 둘러본 시민들 77%가 “사형제 찬성”
- ‘윤어게인’ 외친다는 전한길 음악회···태진아·이재용 이어 소프라노 정찬희도 “불참”
- 유시민 “미친 짓” 비판 ‘공소취소모임’, 민주당 의원 65% 참여 출범…“국정 조사 추진”
- ‘전쟁 4년’ 우크라 인구 1000만명 감소 분석···“최악의 인구 위기”
- ‘이재명 정부 비판’ 이학재 인천공항 사장, 인천시장 출마···25일 사직
- 경찰, 김성훈 전 경호처 차장 ‘해군 선상파티’ 피의자 조사
- 이 대통령, “영원한 동지” 룰라 최고 예우…포옹 환대로 시작해 ‘치맥 회동’ 마무리