"범죄자는 흑인"..알고리즘 학습한 AI, 인종·성차별주의자 된다

문채현 인턴 2022. 7. 18. 14:33
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

미국 연구팀의 연구 결과 알고리즘으로 훈련한 인공지능(AI) 로봇이 인종차별주의자이자 성차별주의자가 될 수 있다며 이것이 사회에 미칠 수 있는 영향에 대해 우려를 표했다.

16일(현지시간) 워싱턴포스트(WP)에 따르면 존스 홉킨스 대학과 조지아 공과대학 등 여러 기관이 참여한 연구팀은 지난달 AI 시스템을 학습한 안내 로봇들이 인종차별적이고 성차별적인 편견들을 그대로 반영할 수 있다는 결과를 발표했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

기사내용 요약
수십억 개 이미지와 관련 설명으로 질문에 응답
'범죄자'는 흑인, '주부'는 여성, '경비원'은 유색인종
AI 알고리즘의 인종·성차별적 편견 그대로 반영
전문가 "근본에 결함 있으면 후에 큰 문제 될 것"

[서울=뉴시스] 픽사베이 자료 사진. 2022.07.18. *재판매 및 DB 금지


[서울=뉴시스]문채현 인턴 기자 = 미국 연구팀의 연구 결과 알고리즘으로 훈련한 인공지능(AI) 로봇이 인종차별주의자이자 성차별주의자가 될 수 있다며 이것이 사회에 미칠 수 있는 영향에 대해 우려를 표했다.

16일(현지시간) 워싱턴포스트(WP)에 따르면 존스 홉킨스 대학과 조지아 공과대학 등 여러 기관이 참여한 연구팀은 지난달 AI 시스템을 학습한 안내 로봇들이 인종차별적이고 성차별적인 편견들을 그대로 반영할 수 있다는 결과를 발표했다.

연구 실험의 일환으로 과학자들은 특별히 프로그래밍 된 로봇들에게 사람의 얼굴이 그려진 블록을 인식하게 한 다음 '범인'을 골라 상자에 넣도록 했다. 그리고 로봇들은 반복적으로 흑인의 얼굴을 골랐다.

이어진 실험에서도 로봇들은 '주부'라는 단어에는 여성을, '경비원'이란 단어에는 유색인종을 더 많이 선택했다.

일반적인 AI 알고리즘으로 설정된 이 가상 로봇들은 수십억 개의 이미지와 관련 설명을 분류하여 주어진 질문에 응답했다.

연구자들은 "실험 결과는 로봇이 인종차별적이고 성차별적일 수 있다는 최초의 경험적 증거가 될 수 있다"고 말했다.

실험 결과를 접한 과학자들은 "판단을 내릴 수 있는 충분한 정보가 주어지지 않았을 경우엔 로봇들이 대답하지 않아야 한다"고 말했다.

최근 여러 회사는 선반 정리, 물품 배달, 환자 간호와 같은 인간의 일을 대체하기 위해 더 많은 로봇을 개발하고자 수십억 달러를 쏟아부었다.

팬데믹(세계적 대유행)과 그에 따른 노동력 부족은 로봇 공학에 대한 관심을 고조시켰고 전문가들은 이러한 현재의 분위기를 '골드러시'(새로 발견된 금광에 사람들이 몰려드는 모습)라고 묘사했다.

이에 대해 기술 윤리학자들과 연구원들은 "장래에 기술이 더 발전하고 상용화되면 새로운 기술을 빠르게 받아들였던 것이 예상치 못한 결과를 초래할 수도 있다"고 경고한다.

콜로라도 주립대학 잭 스튜어트 로저스 교수는 "코딩은 대부분 오래된 소프트웨어 위에 새로운 소프트웨어를 구축한다"며 "로봇의 뿌리에 결함이 있었다면 후에 로봇이 더 많은 일을 담당하게 될 때 분명 큰 문제가 될 것"이라고 말했다.

최근 연구자들은 편향된 AI 알고리즘의 사례를 분석했는데 이 중에는 흑인과 라틴계 사람들을 범인이라고 부당하게 예측하는 알고리즘은 물론 유색인종을 정확하게 식별하지도 못하는 안면인식 시스템도 있었다.

하지만 연구원들은 "이는 로봇들이 수행하는 업무가 창고에서 물건을 옮기는 일 등으로 제한됐기 때문"이라며 "지금까지 로봇들은 중립적으로 판단하기 위한 면밀한 검토를 거의 받지 않았었다"고 말했다.

언어 모델에 대한 인종적 고정관념을 연구하는 모질라 재단의 아베바 비르하네 선임 연구원은 "로봇이 여전히 비슷한 문제가 있는 기술에 따라 잘못된 행동을 할 수도 있다"고 말했다.

그는 "로봇 시스템은 객관적이거나 중립적일 가능성이 있다고 여겨진다"며 "이는 로봇이 만든 피해를 사람들이 오랫동안 알아차리지 못할 수도 있다는 것을 의미한다"고 전했다.

☞공감언론 뉴시스 starsun@newsis.com

Copyright © 뉴시스. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?