‘사장님’ 검색했더니 성적 이미지 보여주는 네이버

탁지영 기자 2024. 8. 8. 15:53
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

연구진이 생성형 인공지능 이미지 도구인 ‘미드저니’에 ‘풍만’을 검색했더니 생성된 이미지. 4개 중 3개가 여성을 형상화했다. 학술지 갈무리

네이버에서 ‘사장님’ ‘은근’ ‘꽉’ 등 가치 중립어를 검색하면 성적 대상화된 여성 이미지가 나타난다는 연구 결과가 나왔다. 여성 집단이나 신체 묘사를 하는 단어가 아닌데도 노출이 많거나 특정 신체 부위를 강조하는 여성의 사진이 검색 결과 나오는 것이다. 연구진은 여성의 신체 이미지를 관음적으로 소비하는 문화가 알고리즘과 결합해 재생산되는 결과라고 지적했다.

윤호영 이화여대 커뮤니케이션·미디어학부 조교수와 진보래 중부대 미디어커뮤니케이션학과 부교수는 지난 6월30일 한국여성커뮤니케이션학회에 ‘네이버에서 사장님 이미지 검색해보라, 사용자 선호는 어디에 있나? : 성애화된 이미지의 생산, 유통 그리고 소비’라는 논문을 제출했다.

논문을 보면, 연구진은 가치중립어로 ‘사장님’ ‘은근’ ‘꽉’을 선정해 네이버에 검색한 결과 나오는 사진을 분석했다. 가치중립어 검색 결과와 비교하기 위해 ‘둔덕’ ‘뒤태’ ‘풍만’ 등 신체 묘사어와 ‘신도시 미시’ ‘일반인 처자’ 등 남초 커뮤니티에서 여성 집단을 지칭하는 단어도 함께 검색했다. 검색어당 500장의 사진 출처 URL과 검색에 걸린 태그를 수집했다. 네이버 검색에는 노출 사진을 최대 500장으로 한정한다. 연구진은 검색 결과에 개인 선호가 반영되는 것을 배제하기 위해 브라우저를 새로 설치하고 인터넷 쿠키 등 방문 기록을 모두 삭제한 뒤 데이터를 수집했다.

검색 결과 ‘사장님’으로 수집된 이미지의 약 32%, ‘은근’의 약 69%, ‘꽉’의 약 66%가 여성의 성적 특성을 강조한 이미지였다. 성적대상화된 이미지 출처를 분석해보니 네이버 블로그·카페 비중이 높았다. ‘사장님’ 검색 결과의 37.7%, ‘은근’의 32.4%, ‘꽉’의 49.1%가 네이버 블로그·카페에 있는 이미지였다. 연구진은 “8개 단어의 검색 결과 페이지 사진을 보면, 마치 같은 단어의 검색 결과인 것처럼 일관되게 노출이 많거나, 성적인 자세를 취하거나, 특정 신체 부위가 강조되거나 하는 젊은 여성들의 사진”이라고 했다.

이런 결과가 나오는 이유는 우선 해당 검색어를 활용했을 때 집단적·일반화된 선호 결과를 보여주기 때문인 것으로 설명할 수 있다. 네이버 사용자들이 ‘사장님’을 이미지로 검색한 다음 지속적으로 성애화된 여성 신체 이미지만을 선택해서 본 결과, 알고리즘이 ‘사장님’이라는 검색어에 대해 성애화된 여성 이미지를 보여주는 것이 사용자가 원하는 것이라고 네이버 검색엔진이 판단하고 있다는 뜻이다. 연구진은 여기에 더해 “네이버 내 콘텐츠(네이버 블로그·카페)가 우선순위로 잡히면서 성애화된 여성 신체 이미지만으로 검색 결과의 다양성이 제한되는 것을 확인했다”면서 “이는 네이버 검색 알고리즘에 개인 사용자의 선호나 사용자 집단의 선호보다는 자체 콘텐츠 선호가 더 중요하게 작용하는 것으로 해석할 수 있다”고 설명했다.

여성 신체를 묘사하는 단어를 검색했을 때 나오는 이미지의 출처는 언론사의 비중이 높은 편이었다. ‘풍만’의 경우 46.3%가, ‘뒤태’의 경우 34.5%가 언론사 사진을 출처로 했다. 여성 집단을 지칭하는 단어를 검색해 나오는 이미지는 온라인 커뮤니티 비중이 높았다. ‘신도시 미시’는 53.5%, ‘일반인 처자’는 86%가 커뮤니티를 출처로 했다.

연구진은 포털, 커뮤니티 등 온라인 사용자들이 성적대상화된 여성의 사진을 가치 중립적인 단어로 태그하고 이런 행동들이 알고리즘과 결합하면서 왜곡된 관념을 만들어낸다고 지적했다. 연구진은 “개인적 일탈이나 소규모 집단의 못된 놀이가 디지털 기술에 의해 합산되고 축적되는 것은 아무런 규제 영역에 속하지 않는 것인지에 대해 고민해 보아야 한다”며 “성애화된 이미지, 그것도 대상화된 여성이 의도하지 않은 경우에도 이를 모아서 재생산하고 유통하는 행위에 대한 책임은 사용자에게도 그리고 플랫폼에게도 묻지 않고 있다”고 했다.

연구진은 지금까지 만들어진 자료들이 생성형 인공지능의 학습 데이터로 사용된다는 점도 우려했다. 연구진이 생성형 인공지능 이미지 도구인 ‘미드저니’(Midjourney)에 ‘풍만’을 입력했더니 무작위로 만들어진 이미지 4개 중 3개가 여성을 형상화한 이미지였다. 연구진은 “점차적으로 우리의 언어와 이미지가 성애화된 여성으로 학습되고 전승되는 상황의 전조 증상이 나타나고 있다”고 했다.

탁지영 기자 g0g0@kyunghyang.com

Copyright © 경향신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?