[이슈 컷] 흑인에 유독 가혹한 인공지능..정말 똑똑한 것 맞나요?

이은정 2021. 9. 16. 07:00
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.


(서울=연합뉴스) 최근 한 페이스북 이용자는 흑인 남성이 등장하는 영상을 시청하다 '영장류에 관한 영상을 계속 시청하겠습니까'라는 자동 알림을 받았습니다.

해당 영상은 흑인 남성이 백인 시민·경찰관들과 언쟁하는 내용으로 원숭이와 같은 영장류와는 관련이 없었는데요.

최근 뉴욕타임스에 따르면 페이스북은 "용납할 수 없는 오류"라며 "이런 일이 재발하지 않도록 근본 원인을 파악 중"이라고 밝혔습니다.

그러면서 "인공지능(AI)을 많이 개선했지만 아직은 완벽하지 않다"고 덧붙였는데요.

인공지능의 인종차별 논란은 해를 거듭하며 지속해서 발생하고 있습니다.

특히 구글, 페이스북 등에서 제공하는 자동 사진 분류 서비스에서 흑인을 제대로 인식하지 못하는 등의 문제가 해결되지 않고 있는데요.

이 서비스는 사진에서 미간, 눈 깊이, 코 등의 특징점을 찾고 다른 사진과의 유사점을 비교·분석합니다. 이 과정에서 인공지능이 흑인과 영장류의 피부색 등을 고려해 얼굴의 유사한 특징으로 '일치한다'고 판단한 건데요.

이수진 세종대 인공지능학과 교수는 "얼굴 특징을 잡아서 일치하는지로 결론 내린다"며 "(흑인이 영장류로 분류된 건) 어떤 영장류를 넣었더니 일치하는 점들이 많은 것이다. 우리 얼굴은 3차원인데, 사진의 2차원 이미지 정보를 기준으로 특징점들을 비교해 판단하는 것"이라고 설명했습니다.

앞서 지난 2015년 구글 포토에선 흑인 사진에 '고릴라'란 태그가 붙어 논란이 일었죠.

구글은 이에 대한 조치로 기능 개선 대신 문제의 키워드·분류를 삭제했습니다.

또 지난해 '데이터 레이블링'(data labeling·인공지능을 만드는 데 필요한 학습 데이터 입력 작업) 기술을 접목한 '구글 비전 AI'도 밝은 피부의 사람이 들고 있는 체온계는 있는 그대로, 흑인이 손에 든 체온계는 총으로 인식해 비판이 제기됐죠.

그뿐 아니라 지난달 '트위터 알고리즘 편향 공모전'에선 트위터의 대표 사진 고르기 알고리즘이 편향성을 보였습니다. 대표 사진에서 흑인, 이슬람교도, 장애인, 노인을 자동 탈락시키는 것으로 나타났는데요.

트위터에 사진을 올릴 때 인공지능이 중요한 부분을 선택해 잘라내는 '자동 이미지 자르기 기능' 역시 마찬가지였습니다. 흑인보다는 백인을, 남성보다는 여성을 선택했죠.

이밖에 데이터 학습을 통한 알고리즘으로 일상에서 피해를 본 사례도 있습니다.

영국의 인공지능 비자 신청 프로그램은 백인보다 비백인이나 특정 국가 출신의 신청자들을 더 오래 심사하거나 거절했습니다. 이에 영국은 지난해 해당 프로그램을 중단했습니다.

미국 미시간주에선 지난해 한 흑인이 얼굴 인식 시스템 착오로 경찰에 억울하게 체포되기도 했습니다. 인공지능 시스템이 흑인 얼굴 간 분석·구별을 정확히 해내지 못한 것인데요.

이에 대해 전문가들은 인공지능이 학습하고 추론하는 데이터양의 불균형에 원인이 있다고 지적합니다. 일례로 백인 남성 데이터는 많고, 흑인 여성은 적어 인공지능이 흑인 여성 사진을 제대로 분류하지 못하는 식인데요.

국내 인공지능 분야 선구자로 불리는 김진형 인천재능대 총장은 "데이터가 고르게 분포돼 있지 않은 것인데, 통계적으로 샘플링 바이어스(sampling bias)라고 한다"며 "데이터에 편견이 있으면 그대로 알고리즘에 전이되고 다시 말해 인공지능으로 전이되는 것이다. 어떻게 하면 편견이 없도록 학습할 것인지에 대한 연구를 많이 하는데 데이터에 편견이 있어 극복하기 쉽지 않다"고 설명했습니다.

이런 인공지능의 한계를 극복하려면 개발자의 윤리적 감수성과 철저한 검증, 편향성을 줄여나갈 과학적 연구를 병행해야 하는데요.

김진형 총장은 "데이터 수집부터 신중해야 한다"며 "개발자들은 윤리적으로 일관성을 갖고 검증해야 한다. 또 편견을 자동으로 알려줄 방법이 없을지 과학적 방법에 대한 연구를 많이 하는데, 이런 것들이 조금씩 발전할수록 편견이 있단 걸 알아내기도, 그걸 고치기도 쉬워진다"고 말했습니다.

이은정 기자 황지원 인턴기자 김지효

mimi@yna.co.kr

뱃속 아기 지키려, 항암치료 포기하고 다리 절단한 엄마서경석에 불똥 튄 중개수수료 갈등…광고 중도 하차선글라스 다리에 손만 쓱…몰래 찍어도 아무도 몰랐다30대 보건소공무원 숨진채 발견…"월 100시간 초과근무"아이 이상해 주머니에 녹음기 넣어 등교시켰더니 담임선생님이…북한 '최고 아나운서' 리춘히가 받는 특급 대우는안동서 모더나 1차 접종 40대 남성 이틀 만에 숨져88세 노인, 성적 접촉 거부한 아내 몽둥이로 폭행해 뇌출혈하루만에 돌고래 1천428마리 대학살…페로 제도서 무슨일이"반으로 못접지?"…삼성, 공식계정서 애플 공개 저격

▶연합뉴스 앱 지금 바로 다운받기~

<저작권자(c) 연합뉴스, 무단 전재-재배포 금지>

Copyright © 연합뉴스. 무단전재 -재배포, AI 학습 및 활용 금지

이 기사에 대해 어떻게 생각하시나요?