“알고리즘은 깜깜이”, “알고 쓰면 차별개선에 도움”

한귀영 2023. 5. 1. 09:35
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

지난 2 월 미국 구글이 1 만 2000 명을 감원하는 과정에서 알고리즘을 이용했다는 의혹이 제기됐다.

인공지능 알고리즘이 채용과 승진 , 해고에 이르기까지 인간의 삶에 중대한 영향을 미치면서 ' 권력자 ' 역할을 하는 셈이다 . 인공지능 알고리즘에 기반을 둔 자동화된 의사결정이 확산하면서 효율성과 편의성이 높아지고 있다 . 하지만 그 과정이 불가사의한 방식으로 이루어져 ' 블랙박스 ' 에 비유된다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

채용 등 중요 결정 좌우하는
AI의사결정 ‘공정’ 명분 확산
의사결정과정 몰라 ‘블랙박스’
개인 평판·채용·신용에 큰 영향
알고리즘 현명한 활용 땐
성별 임금 격차, 인종차별 개선
‘투명하고 알기 쉬운 사회’는
기술을 개방적 사용할 때 가능
지난 2월 대량 해고 방침에 항의시위를 벌이는 구글 노동자들. 감원 과정에서 인공지능 알고리즘을 이용했다는 의혹이 제기됐다. /AFP연합뉴스

지난 2 월 미국 구글이 1 만 2000 명을 감원하는 과정에서 알고리즘을 이용했다는 의혹이 제기됐다. 인공지능 알고리즘이 채용과 승진, 해고에 이르기까지 인간의 삶에 중대한 영향을 미치면서 ‘권력자’ 역할을 하는 셈이다. 인공지능 알고리즘에 기반을 둔 자동화된 의사결정이 확산하면서 효율성과 편의성이 높아지고 있다. 하지만 그 과정이 불가사의한 방식으로 이루어져 ‘블랙박스’ 에 비유된다. 인공지능 세상에 대한 유토피아와 디스토피아의 이분법을 넘어 균형 있는 논의와 합리적 대안에 대한 요구가 높아지고 있다.

블랙박스 알고리즘

채용 인공지능은 유럽연합 등 여러 나라에서 ‘고위험군 인공지능' 으로 분류되는데, 개인의 안전에 위협이 되거나 생계에 적잖은 영향을 미치기 때문이다. 미국은 물론 한국에서도 ‘공정성’ 을 명분으로 인공지능 면접이 도입되면서 채용 과정에서 실질적 권한을 행사하는 중이다. 사람 면접관에 견줘 주관적 판단이 개입될 여지가 적다는 점, 무엇보다 채용 비리로부터 자유롭다는 점 때문에 공공부문을 중심으로 확산하고 있다.

하지만 알고리즘에 의한 자동화된 의사결정은 왜 그런 결정이 내려졌는지 설명하지 못한다. 입력된 데이터를 인공지능 스스로 학습(머신러닝) 했기 때문에 의사결정 과정이 불투명하여 ‘블랙박스’ 로 불린다. 채용 면접·입시와 같이 중대한 문제에서 결정이 이루어지는 과정을 설명할 수 없다면 정당성·신뢰성도 담보할 수 없다.

막대한 돈과 권력을 가진 기업 또는 정부가 그들이 지닌 정보를, 그들만의 방식으로 이용해 사회를 지배하는 현실을 지적하는 프랭크 패스콸리 미국 브루클린대 교수는 저서 <블랙박스 사회> 에서 이러한 알고리즘이 작동하는 방식을 ‘비밀주의’ 라고 꼬집는다. 모순적인 점은 채용 등 그들의 의사결정 과정은 비밀로 유지되는 반면 우리가 온라인에서 하는 모든 행위는 기록되고, 드러난다는 것이다. “비밀스런 알고리즘에 의한 평판이 우리의 삶의 기회를 규정하며 비밀주의가 고도화할수록 시장의 개방성· 공정성은 악화한다” 고 말한다.

인공지능 도구가 내리는 판단이 편향적이라는 비판도 거세다. 미국 전자상거래기업 아마존이 2018 년 개발한 인공지능 채용 프로그램이 성차별을 학습해 여성에게 불이익을 주었다는 것은 널리 알려진 사례다. 사람의 판단을 그대로 학습하는 인공지능은 성별·인종·장애·나이·학력 등 사회에 깊이 파고든 차별적 시선까지 따라할 위험성이 크다.

알고리즘의 잠재력

인공지능 의사결정은 거스를 수 없는 흐름이다. 미국 샌디에이고대 법학 교수인 오를리 로벨 은 저서 <평등기계> 에서 “어둠을 저주하는 것보다 촛불을 켜는 것이 항상 더 낫다” 면서 “인공지능을 차별을 드러내는 도구이자 불평등과 차별에 맞서 싸우는 도구로 적극적으로 활용할 수 있다” 고 말한다. 사람이 판단하고 결정하는 의사결정 과정에서도 수많은 차별과 불공정이 발생한다. “사람들의 마음을 바꾸는 것보다 알고리즘을 고치기가 더 쉽다. 알고리즘의 목표는 완벽이 아니라 진보하는 것이다” 고 강조한다.

로벨 교수는 인공지능을 현명하게 활용하면 차별도 줄여갈 수 있다고 본다. 차별이 오프라인 시장보다 플랫폼에서 발생할 경우 더 잘 이해하고, 개선할 수 있기 때문이다. “에어비앤비는 소수인종의 예약 성공률이 낮다는 데이터에 따라 호스트나 게스트의 소개 사진 표시를 중단하기도 했다. 물론 차별이 완전히 해소되진 않았지만, 더 많이 알수록 차별의 원인을 규명하고 바로잡는 데 도움이 될 수 있다.” 로벨 교수는 알고리즘을 이용해 성별 임금격차도 줄여갈 수 있다고 제안한다. 과거에는 고임금 일자리에 대한 광고가 주로 남성에게만 게재되었는데, 여성에게도 동등하게 표시하도록 프로그래밍하는 방식의 인공지능판 적극적 우대 조치인 셈이다.

알기쉬운 사회

알고리즘 의사결정이라는 블랙박스 시스템은 개인의 평판을 결정하고, 상품 구매, 심지어 정치적 선택까지 추천하면서 우리 삶과 사회를 지배하고 있다. 채용은 물론 신용에서도 알고리즘에 의한 평점이 결정적 역할을 한다 . 프랭크 패스콸리 교수는 “평점은 그 자체로 법이 되었고, 검색은 21 세기의 빅 브러더가 되었다” 면서 투명한 사회, 알기 쉬운 사회를 대안으로 제시한다.

하지만 투명성만으로는 충분하지 않다. “햇빛은 최고의 살균제” 이지만 정보를 개방하라는 요구에 대해 기업과 권력기관은 비밀주의와 난독화 전략으로 대응해 투명성을 더 악화시킨다. 기업이 제출한 수천 페이지에 이르는 복잡한 설명은 이용자의 이해를 가로막기 때문이다. “투명성뿐만 아니라 이해 가능성을 높일 수 있는 공적 대안이 개발되어야 한다” 고 패스콸리 교수는 강조한다. 기술의 개방적 사용, 즉 정부가 주도해서 공공 평점 시스템을 만들거나 공공 인터넷 기업을 만들어 감시 기술을 시민을 대상으로 사용하는 게 아니라 기업의 탐욕을 감시하는 데 사용하자는 것이다.

한귀영 사람과디지털연구소 연구위원 hgy4215@hani.co.kr

Copyright © 한겨레신문사 All Rights Reserved. 무단 전재, 재배포, AI 학습 및 활용 금지

이 기사에 대해 어떻게 생각하시나요?