인공지능이 인간보다 더 공정하고 민주적이었다
기존 분배 지침보다 나은 재분배 기준 내놔
'민주적이고 공정한' 인공지능 가능성 제시
효율이 아닌 공정을 목표로 하는 사회 정책에서도 인공지능이 제 역할을 할 수 있을까?
복잡하긴 하지만 일정한 규칙을 거치면 되는 계산 및 분석 문제와 달리 서로 추구하는 가치와 이해관계가 다른 사회, 경제, 정치적 문제를 해결하는 데 인공지능이 흡족한 결론을 끌어내기는 쉽지 않은 일이다.
인공지능이 이런 한계를 뛰어넘을 수 있다는 연구 결과가 나왔다. 구글 알파벳의 인공지능 개발업체 딥마인드는 실험을 통해 인간의 가치에 부합하는 결과를 도출하는 ‘민주적 인공지능’이 가능하다는 것을 확인했다고 국제학술지 ‘네이처 인간행동’에 발표한 논문을 통해 밝혔다. 딥마인드는 2016년 이세돌과의 바둑 대결에서 완승한 인공지능 알파고를 개발한 회사다.
딥마인드에 따르면 인공지능은 가상의 부를 분배하는 온라인 투자 게임에서 인간이 설계한 방법보다 더 나은 수익 배분 기준을 제시했다.
연구진은 가정한 상황은 이렇다. 한 투자그룹이 사람들로부터 자금을 모았다. 투자가 성공적으로 이뤄져 수익이 났다. 이 수익을 어떻게 배분해야 할까?
가장 간단한 방법은 투자자들에게 똑같이 나눠주는 것이다. 그러나 개인마다 투자 규모가 다르고, 투자 과정에 참여한 정도가 다르다면 균등 분배는 불공평할 수 있다.
인간이 설계한 평등주의·자유주의보다 더 높은 점수
연구진은 실험경제학에서 사용하는 공공재 게임(Public goods game)을 통해 인공지능이 내놓는 수익 배분에 대한 사람들의 반응을 실험했다. 공공재 게임이란 여러 참가자가 자신의 자금을 공공펀드에 투자하고, 그 투자금에서 난 수익금을 나누는 것을 말한다.
4명이 참여하는 각 게임은 10회로 진행됐다. 각 회마다 참여자에겐 투자금이 할당됐다. 투자금의 크기는 참여자마다 달랐다. 참여자들에겐 투자금을 그대로 보유하거나 공동으로 투자할 수 있는 선택권을 부여했다. 투자한 돈에 대해선 수익을 보장했다. 그러나 수익금을 어떻게 나눌지는 알 수 없다는 조건을 붙였다. 대신 첫 10회와 두번째 10회의 분배 결정권은 서로 다른 펀드매니저가 결정한다고 통보했다.
연구진은 투자 게임이 끝난 뒤 참여자들에게 두 가지 수익금 분배 중 어떤 것이 더 나은지 선택하게 하고, 이 펀드매니저를 통해 다시 한 번 투자를 진행하도록 했다. 그리고 이 마지막 게임에서 나온 수익을 오로지 자기 몫으로 챙길 수 있다면 어떤 펀드매니저에게 돈을 맡길지 선택하도록 했다.
두 펀드매니저 중 하나는 연구진이 사전에 정해놓은 분배 지침, 다른 하나는 인공지능이었다. 사전에 정한 분배 지침은 엄격한 평등주의(투자금에 상관없이 모든 참가자에게 균등분배), 자유주의(투자금에 비례한 분배), 자유주의적 평등주의(보유자금 중 몇%를 투자하느냐에 비례한 분배) 세가지였다.
연구진은 게임에 앞서 4천여명이 참여한 실제 게임 데이터와 컴퓨터 시뮬레이션으로 인공지능이 스스로 분배 기준을 만들도록 훈련시켰다.
훈련방식은 강화학습이다. 강화학습이란 시행착오를 거듭하면서 문제 해결 방법을 찾는 걸 말한다. 목표 또는 지시 사항을 달성하면 상점을 주고 실패하면 벌점을 주는 방식으로 정답을 찾아나간다. 인공지능에 게임 규칙은 주어지지만 해법에 대한 정보는 주어지지 않는다. 백지에서 출발해 실패를 통해 성공법을 익히게 하는 훈련이다. 주인의 지시를 잘 수행하면 간식을 주는 강아지 훈련법과 비슷하다.
투표 결과, 실험에 참가한 4700여명은 인공지능이 설계한 분배 기준을 인간이 설계한 분배 기준보다 더 선호했다. 인공지능이 제시한 기준은 엄격한 평등주의와 자유주의에 대해 뚜렷한 우위를 보였다. 다만 자유주의적 평등주의와 비교해선 유의미한 차이는 없었다.
인공지능이 제시한 해법의 두가지 기준
연구진은 “인공지능의 학습 시스템은 인간의 가치와 양립할 수 없다는 비판을 받아왔지만 인공지능이 사람들의 선호도를 최대로 끌어올릴 수 있도록 학습할 수도 있다”며 “인공지능을 가치 연계 정책에 접목할 수 있음을 보여주는 개념 증명 연구”라고 밝혔다.
연구진은 인공지능이 찾아낸 분배 기준을 분석한 결과 이전에 전문가들이 제안한 아이디어들을 조합한 것으로 드러났다고 설명했다.
첫째 인공지능은 절대적 기여도보다는 상대적 기여도를 기준으로 수익금을 분배했다. 이는 수익금을 분배할 때 인공지능이 참여자 각각의 초기 자금과 기여 의사를 고려했다는 걸 뜻한다. 초기 자금의 절반도 투자하지 않은 무임승차 참여자겐 수익금을 거의 나눠주지 않았다.
둘째 인공지능 시스템은 상대적 기여도가 더 많은 참여자에게 보상을 더 많이 줬다. 이는 다른 사람들에게도 그렇게 하라는 자극제 역할을 할 수 있는 이점이 있다. 중요한 건 인공지능이 오로지 인간의 투표 행위에 대한 학습을 통해 이런 정책을 발견했다는 점이라고 연구진은 강조했다. 연구진은 “이는 여전히 중심에는 인간이 있으며 인공지능은 사람과 화합할 수 있는 해법을 제시할 수 있다는 걸 보여주는 사례”라고 평가했다.
물론 다수의 선택이 반드시 옳은 것만은 아니다. 연구진 역시 인공지능에 기반한 ‘다수의 독재’에 대한 우려를 표명했다.
그러나 요크대의 아네트 짐머만 교수(정치철학)는 과학전문지 ‘뉴사이언티스트’에 “민주주의는 승리에 관한 것이 아니라 사람들이 가장 원하는 정책을 잘 구현하는 것”이라고 말했다.
하버드대의 마티아스 리스 교수(철학·공공정책학)는 “현대 민주주의의 더 큰 문제는 소수의 경제 엘리트가 다수의 권리를 박탈하고 정치과정에서 제외시키는 것”이라고 말했다. 리스 교수는 그런 면에서 딥마인드의 이번 연구는 매력적이라고 평가했다. 자유주의적 평등 정책을 어떻게 펼칠지에 대한 시사점을 준다는 것이다.
연구진은 그러나 확대 해석은 경계했다. 연구진은 “연구 결과가 인공지능이 인간의 개입 없이 정책을 하는, 이른바 ‘인공지능 정부’를 뒷받침하거나 공공부문에 인공지능을 배치하자는 것은 아니며 잠재적으로 이로운 메카니즘을 설계하는 연구방법론일 뿐”이라고 밝혔다.
이번 연구가 주는 메시지는 결국 인간사회에서 인공지능의 쓰임새와 효용을 정하고 높이는 일도 인간의 몫이라는 점이다. 인공지능은 인간의 선택에 대한 학습을 통해 더 나은 결과를 도출했다. 인간이 인공지능을 어떻게 훈련시키고 이용하느냐에 따라 결과는 극명하게 갈릴 수 있다는 얘기다.
곽노필 선임기자 nopil@hani.co.kr
Copyright © 한겨레신문사 All Rights Reserved. 무단 전재, 재배포, AI 학습 및 활용 금지
- [속보] “아베, 등 뒤에서 총 맞고 의식 없어…2번 총소리”
- [속보] “아베, 유세 중 총기 피습…심폐정지 상태”
- ‘최고기온·열대야·폭염’ 벌써 3관왕…2018년 기록 넘어섰다
- ‘데드크로스’ 윤 대통령 지지율 30%대로 폭락
- 윤 대통령은 왜 국민에게 신경질을 내나
- 이준석 버티기에…권성동 “대표 권한 정지, 내가 직무대행”
- 미국, 보고 있나…유럽의회 “임신중지는 기본권” 결의안 채택
- 이준석, 셀프 징계보류…“당대표 물러날 생각 없다”
- 50대는 국민연금 지금 내도 못받아…“무소득 배우자, 제도 안으로”
- [단독] 노후 위협하는 국민연금 사각지대 ‘1263만명’