앰네스티 "증오·혐오 방관한 페이스북, 로힝야족에 배상해야"

김서영 기자 2022. 9. 29. 16:18
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

국제앰네스티 보고서 ‘사회적 잔혹행위: 메타와 로힝야족의 회복을 위한 권리’ 표지 캡쳐. 국제앰네스티 제공

소셜미디어 페이스북의 알고리즘이 미얀마의 이슬람계 소수민족 로힝야족에 대한 증오를 증폭시켰으니, 이를 소유한 기업 메타가 로힝야족에 배상해야 한다고 국제앰네스티가 29일(현지시간) 밝혔다.

앰네스티는 이날 ‘사회적 잔혹행위: 메타와 로힝야족의 회복을 위한 권리’란 제목의 보고서에서 페이스북의 이윤을 추구하는 알고리즘 시스템이 로힝야족에 대한 폭력으로 이어졌다고 지적했다.

최근의 로힝야족 탄압은 2017년 8월로 거슬러 올라간다. 당시 미얀마 군부가 로힝야족에 살해, 고문, 방화, 강간을 자행하며 로힝야족 수십만명이 난민이 됐다. 앰네스티 보고서에 따르면 이런 탄압이 시작되기 수개월 전 페이스북에는 주로 군부와 급진적 불교 민족주의 단체가 주도하는 반로힝야족 콘텐츠가 쏟아졌다. 이슬람 인권을 옹호하면 ‘국가적 반역자’로 묘사하고, ‘이슬람교도는 총에 맞아야 한다’, ‘제거해야 한다’ 는 등의 내용이었다.

기본적으로 메타는 참여 기반 알고리즘 시스템을 사용해 페이스북의 뉴스 피드, 랭킹, 추천, 그룹 게시물 등을 강화한다. 또한 사용자가 페이스북 상에 오래 머물수록 메타는 타겟형 광고를 더 많이 팔아 수익을 얻는다. 이에 대해 앰네스티는 “증오와 폭력, 차별을 선동하는 게시물을 내보내는 건 사람들을 플랫폼에 오래 붙들어 주는 효과적인 방안”이라며 “즉 이런 게시물을 홍보하고 확대하는 것이 페이스북 비즈니스 모델의 핵심”이라고 밝혔다.

아녜스 칼라마르 앰네스티 사무총장은 “미얀마 군부가 로힝야족에 대해 반인도 범죄를 저지르고 있는 동안 메타는 자체 알고리즘으로 증오를 증폭시키면서 이익을 얻었다”고 밝혔다. 이어 “메타는 책임을 져야 한다. 메타는 이제 자사의 무분별한 행동의 폭력적 결과로 고통받은 모든 이들에게 배상해야 한다”고 말했다.

2019년 10월 27일(현지시간) 방글라데시에 있는 로힝야족 난민 캠프를 아동이 지나고 있다. 게티이미지

한 로힝야 난민(21)은 “페이스북에서 끔찍한 것들을 많이 봤다. 그 글을 올린 사람들이 나쁘다는 생각이 들었다. 그러다 그들뿐만 아니라 페이스북 또한 책임이 있다고 깨달았다. 페이스북은 플랫폼을 관리하지 않음으로써 그들을 돕고 있다”고 말했다.

앰네스티는 또한 메타가 이러한 문제를 알면서도 제대로 대응하지 않았다고 지적했다. 앰네스티에 따르면 2012년 내부 연구에서 메타는 자사의 알고리즘이 실제 현실 속에서 심각한 해를 초래할 수 있다는 점을 인지하고 있었다. 2016년에도 메타 자체 조사는 “우리의 추천 시스템이 (극단주의) 문제를 키운다”고 했다.

페이스북이 혐오와 폭력을 담은 게시물 관리에 대해 지적을 받은 건 이번만이 아니다. 2012~2017년 사이 메타는 시민사회 활동가들로부터 극단적 폭력을 부추긴다는 경고를 꾸준히 받았다. 2014년 미얀마 당국은 페이스북이 만달레이에서 인종적 폭력을 촉발한다며 일시적으로 페이스북을 차단했다.

또한 2020년 조사에서 페이스북은 반로힝야 움직임을 이끄는 인물에 관한 동영상 조회 수의 70% 이상이 ‘다음 동영상 보기’에서 발생했다고 밝혔다. 이용자가 자신이 직접 찾은 동영상이 아니라 페이스북의 알고리즘이 추천한 동영상을 봤다는 의미다. 앰네스티는 “메타는 반복적으로 경고에 주의를 기울이지 않았으며 결과적으로 혐오 표현에 관한 자사의 정책을 강화하지 못했다”고 지적했다.

메타 로고. 로이터연합뉴스

이번 앰네스티 보고서는 익명의 페이스북 직원 제보, 페이스북의 알고리즘이 위험하다고 폭로한 내부고발자 프랜시스 하우겐이 미 의회에 제출한 자료, 전문가 분석 등에 기반했다. 일례로 2020년 10월 메타 최고경영자(CEO) 마크 저커버그는 미 상원에 출석해 “지난 수년 동안 우리는 혐오 표현의 20% 이상을 삭제했다. 지금까지도 적극적으로 찾아내고 있어 내 생각에 혐오 표현의 94%가 삭제됐으리라 본다. 이중 다수는 이용자들이 우리 쪽에 신고하기 이전에 이뤄졌다”고 밝혔다. 그러나 앰네스티는 메타의 2019년 7월 내부 공유 자료를 근거로 “페이스북 상 혐오 표현의 약 2%에만 조치를 취했다”고 반박했다.

앞서 로힝야족은 페이스북을 상대로 지난해 12월 미국과 영국에서 집단소송을 제기해 배상금 1500억달러(약 216조원)를 요구했다. 페이스북이 로힝야족 난민에 대한 폭력을 선동하는 플랫폼으로 기능했고, 허위정보와 폭력적인 게시물을 감시하지 못해 실제 로힝야족에 대한 폭력 사태로 이어졌다는 취지였다.

2017년 미얀마에서 로힝야족에 대한 대대적인 탄압이 일어나 수천명이 살해되고 70만명 이상의 난민이 발생했다. 이들은 불교도가 다수인 미얀마에서 이슬람을 믿는 소수민족에 속한다. 로힝야에 대한 탄압은 반인도적 ‘인종청소’로 비판을 받고 있다. 메타 대변인은 앰네스티 보고서에 대한 질문에 답변을 거부했다고 AP통신이 전했다.

김서영 기자 westzero@kyunghyang.com

Copyright © 경향신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?