[지평선] AI 사망선고
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
편집자주<한국일보> 논설위원들이 쓰는 칼럼 '지평선'은 미처 생각지 못했던 문제의식을 던지며 뉴스의 의미를 새롭게 해석하는 코너입니다. 한국일보>
'콤파스(COMPAS)'라는 이 프로그램은 전과는 물론 교육 수준, 거주 지역, 생활 신조 등 피고에 대한 137가지 정보를 종합해 재범 위험을 10단계로 예측하는 일종의 인공지능(AI) 평가 시스템이다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
편집자주
<한국일보> 논설위원들이 쓰는 칼럼 '지평선'은 미처 생각지 못했던 문제의식을 던지며 뉴스의 의미를 새롭게 해석하는 코너입니다.
2013년 2월 미국 중북부 위스콘신주 라크로스에서 주택을 향한 총격 사건이 있었다. 경찰은 얼마 뒤 차를 타고 총을 쏜 2명의 혐의자를 체포했는데 이 중 한 명이 1심 재판에서 6년형을 선고받는다. 이 판결에는 당시 미국 여러 주에서 도입한 '범죄 예측 프로그램'이 사용됐다. '콤파스(COMPAS)'라는 이 프로그램은 전과는 물론 교육 수준, 거주 지역, 생활 신조 등 피고에 대한 137가지 정보를 종합해 재범 위험을 10단계로 예측하는 일종의 인공지능(AI) 평가 시스템이다.
□그러나 피고인 평가 방법, 즉 알고리즘이 공개되지 않은 프로그램을 재판에 이용하는 것은 적절한 법적 절차를 받을 권리 침해라며 항소를 제기했다. 실제로 이 프로그램이 적용됐지만 2년간 재범이 없었던 사람 중 재범 위험도가 높다고 평가된 경우가 백인은 23.5%, 흑인은 44.9%라는 보도도 있었다. 반대로 다시 범죄를 저질렀지만 애초 위험이 낮다고 평가된 사람이 백인은 47.7%, 흑인은 28.0%였다. 인종 편향을 의심할 만하다.
□AI가 잘못 판단하는 이유로 몇 가지가 거론된다. 우선 딥러닝의 기초가 되는 데이터가 충분하지 않은 경우다. 개와 고양이 사진만 제공받아 이를 구별하도록 학습한 AI에게 조류 사진을 보여 줄 때 올바른 답을 기대하기 어렵다. 얼굴 인식의 정확도가 인종에 따라 다른 것도 수집 자료의 차이와 무관하지 않다. 알고리즘 편향도 문제가 된다. 남성 우대로 논란이 된 아마존 채용 시스템이나 애플의 신용카드 대출심사 편향이 이런 경우다.
□인간 사회의 편향을 AI가 재연하는 경우는 심각하다. 출시 한 달도 안 돼 폐기 결정된 '이루다'처럼 챗봇에서 이런 문제가 반복된다. 그러나 '이루다'가 폐기되더라도 이것이 AI에 대한 사망선고일 리 없다. AI는 이미 논리적으로 인간의 모든 결함을 넘어서는 '초월자'가 되기로 예정된 존재다. 반가우면서 두려운 이유다. AI 개발 과정에서 윤리 준수나 학습 데이터 기록 등 문제를 고치려는 노력을 의무화하지 않으면 AI 디스토피아 우려는 더 커질 수 있다.
김범수 논설위원 bskim@hankookilbo.com
ⓒ한국일보 www.hankookilbo.com (무단복제 및 전재, 재배포를 금지합니다)
- 나경원과 진중권이 활짝 웃으며 함께 사진 찍은 사연은
- 동부구치소 '큰 손님' 받은 청송, 그후 20일 "5m 담장안 전쟁 중"
- [단독] 박영선 "서울시장 출마한다...더 절실해졌다"
- "내 소설 베껴 수차례 문학상... 힘 없는 학생의 글 빼앗다니"
- 주말 '기자회견 족보' 훑은 문 대통령, 사면·윤석열 등 '정면 돌파' 할 듯
- 양정철 ‘사면 제안설’에 이낙연 “그런 얘기 안 했다”
- 육참총장 인권위 제소로 번진 ‘장교 vs 부사관 갈등’
- 이재명 기자회견 긴급 취소... 왜?
- [Q&A] 월요일부터 다섯 명 모여서 카페에서 커피 마실 수 있나
- 조국 딸 국시 합격 소식에... 의사단체회장 "의사 가운 찢고 싶다"