[여현덕의 AI Thinking] AI 알고리즘이 입사 이력서 걸러내고 해고 결정하는 시대
98%가 SW·알고리즘 활용 밝혀
잭 웰치조차 '가치' 중시했지만
AI시대엔 인간적인 요소 사라져
AI 중추 블랙박스, 미궁의 영역
작동원리 밝혀져야 신뢰 얻을 것
프란츠 카프카의 소설 ‘심판’에는 주인공 요제프 K가 영문도 모른 채 어느 날 아침 체포된다. 자신은 무엇 때문에 체포되고 왜 기소됐는지, 죄목은 무엇이고 그를 단죄하는 사람은 누군지 도무지 알지 못한 채 그저 가라는 대로 질질 끌려다니는 장면이 나온다. “뭔가 잘못된 겁니다. 영문도 모르는 제게 유죄라는 게 도대체 말이 되나요?” K는 무죄를 입증하려고 백방으로 애쓰지만, 지극히 관료적인 재판부와는 연락조차 되지 않는다.
깊은 은닉층(hidden layer) 구조로 된 인공지능(AI) 딥러닝 시스템, 즉 알고리즘 설계자도 추적하지 못하는 블랙박스를 두고 간혹 카프카 소설 ‘심판’에 비유하곤 한다. 무심하게 잘 짜인 관료제에 더해 기계 장치가 감시하는 세상이 온다면 인간은 도무지 속을 알 수 없는 보스(기계)의 처분을 기다리는 상황이 될지도 모른다는 뜻에서다.
AI 전환(AI Transformation)에서 충격적 내용은 해고 대상자를 선별하는 AI 머신이다. 만약에 해고가 AI 프로그램에 따라 결정된다면 직장 보스는 최고경영자(CEO)가 아닌 CAO(Chief Algorithm Officer), 그중 진짜 파워맨은 ‘AI 알고리즘’이다. AI 알고리즘이 비즈니스의 틀을 변화시킴에 따라 인간의 창작이 불필요하게 되고, 알고리즘이 생성한 내용을 적절히 편집하면 되는 세상이 오는 것이다. 인간은 점점 창의성에 몰두하지 않게 된다.
최근 뉴욕타임스 등의 뉴스들을 종합하면 구글에서 대량 해고로 1만2000개의 일자리가 사라진 지 며칠 후 수백 명의 직원이 온라인 채팅방에 몰려들어 불만을 털어놓았다고 한다. 아마존, 브리티시 항공 또한 대량 해고를 단행했는데 심판의 프로세스는 바로 AI 알고리즘이라는 분석이다. 즉 AI 알고리즘이 성과 데이터를 기반으로 해고 대상자를 시뮬레이션한다. 물론 기업 측은 공식적으로 알고리즘 해고를 시인하지 않지만, 이미 인적자원관리 시스템에 광범위하게 머신러닝 소프트웨어를 도입했고 고용관리데이터 시스템을 만들었다는 것은 공공연한 비밀이다. 올해 초 미국 기업 인사 책임자 300명을 대상으로 조사한 결과, 98%가 해고 결정에 소프트웨어와 알고리즘을 활용한 것으로 나타났다. AI라는 기계가 직장 보스로 등장한 것이다. 문제의 핵심은 수만 명의 직원이 생산성이 낮다는 이유만으로 AI 프로그램을 사용한 컴퓨터 자동추적 시스템에 의해 해고됐다는 점이다.
AI 알고리즘을 활용하면 조직 구성원의 생산성 측정을 위한 근무 행태와 패턴(가령 이메일 사용 및 미팅 시간, 메신저 빈도, 스케줄링 패턴, 구성원 간 협력 정도 등) 데이터에 기반한 평가가 나온다. 과거에는 설문조사, 인터뷰 등 전통적 방법을 사용했지만 요즘에는 알고리즘이 직접 수행한다. 최근 미국 고용평등위원회 발표에 따르면 포천 500대 기업의 99%가 입사 지원 이력서를 AI 알고리즘에 맡겨 걸러낸다고 한다. 따라서 구직자들은 이력서가 AI 알고리즘에 통과해야 한다는 것을 염두에 두고 준비해야 한다고 조언한다.
몇 가지 시사점이 있다. 첫째, 기존에 사람이 하던 방식과의 차이, 예컨대 금세기 혁신경영을 상징했던 잭 웰치의 경우 가치와 실적을 동시에 고려했고, 실적이 낮다고 바로 해고 대상에 오르는 것이 아니라 먼저 적성에 맞는 곳이 있는지 기회를 준다. 다만 조직의 가치(비전 수용, 조직에 대한 애착과 충성도 등)에 안 맞는데 실적도 최하일 경우 해고 대상(이른바 ‘10% 해고의 룰’)에 들어갔다. 5년 동안 11만명 넘는 직원을 해고해 잭 웰치가 다녀가면 건물만 남고 사람은 사라진다고 해 ‘중성자탄 잭(neutron Jack)’이란 별명을 얻었지만, 그조차도 인간적 고려 사항인 가치를 제일 중시했다. 그간 경영에는 팀워크와 구성원 사기를 높이기 위해 보상 시스템, 멘토링 등 리더십 요소가 중요했다. 이제 이런 요소는 옛이야기가 돼버렸다. 알고리즘이 지배하는 AI 시대에는 인간적 요소를 헤아리기 어려울 수도 있겠다.
둘째, AI 시대일수록 데이터 편견의 극복과 신뢰 제고 등에 대해 더 세심한 주의를 기울일 필요가 있다. 알고리즘에 의한 일 처리가 더 높은 성과를 낼 수 있다고 하더라도, 해고와 같은 민감한 이슈에선 알고리즘의 일 처리에 신뢰를 보내지 않는 경향이 높다. 오데드 노브 뉴욕대 교수는 “사람들은 AI 알고리즘 내용도 중요하게 여기지만, 누가 했는지를 더 중시한다”는 연구 결과를 내놓기도 했다. “제품보다 인식이 우선한다”는 경영학의 고전적 명제는 AI 시대에도 마찬가지로 적용된다. 따라서 AI 기술만이 아니라 AI를 사용하는 인간에 대한 탐구가 깊어질 때, AI 알고리즘의 효과적 사용이 비로소 가능해질 것이라는 뜻이다.
셋째, 카프카의 ‘심판’을 서두에 소개한 것처럼 가장 치명적인 문제는 미궁의 블랙박스다. AI 딥러닝 알고리즘이 아무리 유용하고 성능이 빼어나도 작동 원리를 알 수 없어 블랙박스로 남아 있는 한 인간의 부담이 된다. 딥러닝 시스템은 인간의 뉴런과 시냅스의 깊이만큼이나 깊은 은닉층, 복잡한 함수로 이뤄진다. 미궁의 블랙박스 비밀을 풀지 않고는 AI 작동 원리와 결정 방식에 대한 완전한 신뢰를 얻기는 쉽지 않을 수 있다. 그 때문에 사용자 입장에서 ‘설명가능한 AI(explainable AI: XAI)’에 대한 사회적·기술적 요구가 커지고 있고, 미국 국방고등연구계획국(DARPA) 등에서 XAI에 대한 활발한 연구가 진행되고 있다. XAI 개발을 통해 사용자가 AI 시스템의 의사결정을 이해하고, 결과를 신뢰해 효과적으로 업무를 수행할 수 있도록 해야 할 것이다.
블랙박스는 끝없이 깊은 딥러닝을 가능케 하는 AI의 중추다. 하지만 영문도 모른 채 갑자기 심판대에 오른 주인공 K처럼 블랙박스가 미궁의 영역으로 남아 있다면, 어느 날 터미네이터에 인간이 지배될 것이라는 공상과학 소설은 계속 인기를 끌게 될 것이다. 과학자들이 인간의 뇌 신경세포의 작동 원리를 찾아 나서듯이 AI 심층신경망도 투명한 작동 원리를 알 수 있어야 할 것이다. AI 시대에 진정한 협업의 틀을 짜려면 신뢰 장치가 무엇보다 중요하다.
여현덕 카이스트 기술경영전문대학원 교수
GoodNews paper ⓒ 국민일보(www.kmib.co.kr), 무단전재 및 수집, 재배포금지
Copyright © 국민일보. 무단전재 및 재배포 금지.