AI 판사와 형사재판 배심제[한동수의 틈새](10)

2026. 2. 6. 14:33
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

일러스트 김상민 기자

‘판사를 못 믿겠다. 인공지능(AI) 판사가 낫다’는 주장이 인터넷 댓글은 물론 사법개혁 관련 토론의 장에서 자주 제기된다. AI 기술 발달에 따른 업무환경의 변화가 배경이 됐을 것이다. 그러나 근본적으로는 ‘법 앞에 평등한 재판, 공정한 재판, 국민의 눈높이와 상식에 부합하는 재판’을 간절히 원하는 시민들의 분노와 한탄이 섞인 외침일 것이다.

헌법 제27조는 살아 있는 인간인 법관에 의한 재판을 규정하고 있으므로, AI 판사가 인간 판사를 대체해 직접 재판하는 것은 현실에서는 불가능한 이야기다. 다만 AI가 어디까지 어떤 방법으로 판사의 재판을 지원하고 보조하는 역할을 하는가의 문제다. 규제의 관점에서는 재판과정에 나타날 수 있는 AI의 위험성을 어떻게 실효적으로 통제해 인권과 민주주의를 지켜내는가의 문제다.

기술적인 관점에서 AI의 효율성부터 살펴보자. 미국에서 2004년 구현된 ‘판결예측 알고리즘’은 미국 연방대법원의 자료를 학습한 후 인간 전문가(59%)보다 더 뛰어난(75%) 판결 예측도를 보였다. 에스토니아 사법부는 2020년부터 분쟁 가능성이 적은 소액 민사재판(7000유로 이하)을 AI 판사에게 맡기고 있다. 호주 가정법원은 이혼하는 부부의 친권, 양육비, 재산 분할에 관한 제안을 AI가 담당하기 시작했다.

AI의 놀라운 성능 뒤에 숨은 ‘블랙박스’

한국 법원은 ‘유사 판결 추천 인공지능 모델’을 개발 중이다. 법원에 사건이 접수되면 AI 시스템이 유사한 하급심 판결 10건을 자동 추천해주는 기술이다. 현재 판사들은 판결문검색시스템에서 검색어를 입력해 쟁점 파악과 판결문 작성에 참고할 만한 판례를 찾고 있는데, AI를 활용해 효율적으로 판례검색을 지원한다는 구상이다.

하지만 AI는 헌법에 보장된 ‘법관에 의한 재판을 받을 권리’와 ‘공정한 재판을 받을 권리’를 침해할 위험이 크다. 때문에 AI를 더욱 강력하고 적절하게 통제할 수 있도록 그 한계 설정과 규제가 필요하다.

2024년 8월 1일부터 발효된 유럽연합의 인공지능법(EU Artificial Intelligence Act)은 크게 참고할 만하다. 이 법은 AI를 위험 수준에 따라 포괄적으로 규제하고 있는데, 부속서 Ⅲ 제8항을 보면 사법기관이 사실과 법률을 조사, 해석하고 법률을 구체적인 사실에 적용할 때 사용하는 AI 시스템은 ‘고위험 AI 시스템’으로 간주한다. 고위험 AI 시스템에 대해서는 데이터와 데이터 거버넌스, 기록관리, 투명성 및 배포자에 대한 정보의 제공, 인간에 의한 감독, 정확성, 견고성 및 사이버 보안, 고위험 AI 시스템 제공자와 활용자 및 기타 당사자의 의무 등에 관한 상세한 규정을 따로 두고 있다.

AI에 필요한 학습 데이터는 과거 판결문이다. 그런데 판결문은 과학실험에서 측정된 정량적 데이터가 아니라 여러 편향이 포함돼 있으며, 편향이 점차 증가해 기존의 차별을 영속화하고 증폭시키는 경향까지 포함된 사회데이터다.

개정된 법률에 기초한 판결, 성범죄·기업범죄 등에서 발견되는 과거의 온정적인 양형, 서로 모순·저촉되는 판결, 대법원 판단을 받지 않거나 대법원 판단을 받았더라도 심리불속행 상고기각으로 확정된 하급심 판결, 정치적인 판결, 재심대상 판결 등 데이터에 담긴 각종 편향과 오류를 제거하는 작업이 부가돼야 한다. 즉 데이터세트가 최대한 완전하고 오류가 없도록 요건을 설정하고, 제3자를 통해 데이터 거버넌스와 관련된 요건을 준수할 수 있도록 해야 할 것이다. 일종의 ‘휴먼 인 더 루프(Human in the Loop)’로서 AI가 제공한 자료를 분석하고 검증, 판별해내는 숙련된 법률전문가의 정신적 작용이 반드시 개입될 수밖에 없는 것이다.

또 AI의 놀라운 성능 뒤에는 종종 AI가 어떻게 결정을 내리는지 이해하기 어려운 특성을 가리키는 이른바 ‘블랙박스’라고 하는 문제가 숨어 있다. 재판당사자가 AI의 오류를 분석하고 반박할 수 있도록 법원이 학습한 데이터와 알고리즘이 공개돼야 한다. 극단적인 예지만, 판사가 어느 한쪽 당사자에게 유리하거나 불리한 결론을 정해놓고 무죄 판결문이나 원고승소 판결문을 작성해달라고 AI에 지시했을 경우를 대비해야 할 것이다. 현재 국회에 계류 중인 판결문 공개 확대 및 법왜곡죄가 실천적 의의를 갖는 지점이기도 한다.

관련해서 AI가 생산한 변론자료가 일방 당사자에게 편중됨으로써 공정한 재판이 침해될 가능성이 없는지 충분히 살펴볼 필요가 있다. 대형로펌은 현재 전관 출신 변호사들이 오랜 기간에 걸쳐 작성한 많은 양의 서면과 의견서를 기반으로 맞춤형 AI를 개발하고 있다. 대형로펌을 상대하는 개인은 소송에서 불리한 위치에 설 수밖에 없다. 분쟁의 공평한 해결, 실체 진실의 발견이라는 관점에서 관련 소송법과 제도 등의 정비도 필요할 것이다.

AI 판사보단 형사재판 배심제가 바람직

필자가 판사로 재직하는 동안 선고했던 실제 판결례를 살펴보면 AI 판사보다는 일반 국민이 판단의 결정권자가 되는 형사재판 배심제를 도입하는 것이 바람직하다는 판단을 내리게 된다.

필자는 2002년 4월 12일 여호와의 증인 신자에 대한 구속영장 청구를 국내 최초로 기각했다. 당시 집총거부를 하는 여호와의 증인 신자는 병역법 위반으로 구속 기소돼 예외 없이 실형 1년 6월을 선고받던 시절이었다. AI 판사라면 실정법과 선례에 따라 자동적으로 구속영장을 발부했을 것이다. 헌법재판소는 2018년 6월 28일에 이르러 대체복무제를 허용하지 않는 병역법 조항이 과잉금지 원칙을 위반, 양심적 병역거부자의 양심의 자유를 침해한다고 판단했다.

민사단독 판사 시절 검찰의 무혐의, 항고, 재항고 및 헌법재판소의 헌법소원 절차가 모두 종결된 교통사고 뺑소니 사건에서 검찰, 헌법재판소와 결론을 달리해 자동차 운전자가 바뀌었다는 판결을 선고했다. 그 민사단독 판결이 계기가 돼 나중에 진범이 밝혀져 음주 상태에서 운전 중 교통사고를 냈다고 자백했고, 실형을 선고받아 그 판결이 확정됐다. 관련 사건이 모두 종결된 상태에서 동일한 증거자료를 대상으로 한 사건이었으므로 AI 판사라면 망인을 운전자로 본 종전 검찰과 헌법재판소가 내린 판단을 유지했을 것이다.

확정된 사기 사건 피해자가 제기한 위자료 청구사건의 판결문에 피고의 주장을 배척하는 이유로 “이 법정에는 원고의 탄식이 더 크게 들린다”라고 적었다. 가해자인 피고가 너무나 뻔뻔스럽게 불법행위를 부인하고 있는 상황에서, 어떤 표현이 객관성을 유지한 가운데 원고에게 작은 위로가 되고 설득력이 높은 판결이 될 것인가를 고민했던 기억이 있다. AI 판사는 이러한 파격적인 판결 이유를 허용하지 않았을 것이다.

2013년 8월 12일 피녹음자의 동의 없이 통화내용을 비밀녹음한 후 그 녹취서를 작성, 활용한 사건에 대해 위법성 조각사유가 없는 한 헌법이 보장하는 음성권과 사생활의 비밀과 자유를 침해하는 민사상 불법행위를 구성할 수 있다고 판결했다. 당시는 선례가 없던 이례적인 판결이었으나 점차 법원에서 같은 취지의 판결이 나오기 시작했다. 대화자 간의 음성권 및 사생활의 비밀과 자유에 대한 침해를 인정하지 않았던 과거 데이터에 의존하는 AI 판사는 불법행위 책임을 인정하지 않았을 것이다.

2013년 1월 29일 노동조합 활동을 했다는 이유로 조합원에 대한 근무평정을 낮게 줘 성과급 등에서 불이익을 준 사례에 대해 불법행위 책임을 인정했다. 통계적으로 확인되는 차별은 금지된다는 대법원판결 법리에 터잡아, 인력 퇴출프로그램이 본사 차원에서 각 지역본부와 지사에 하달됐을 것으로 보는 게 상식과 경험칙에 부합한다고 판단했다. 이 판결은 상고이유가 제한되는 소액사건이었음에도 불구하고 대법원에서 근무평정도 사법심사의 대상이 된다는 전제하에 합리적 이유가 없는 부당한 인사고과는 재량권을 남용한 것으로서 위법하다는 취지의 원심 판단이 정당하다는 판단을 받았다. AI 판사는 선례가 없던 사건에서 기록에 나타나지 않은 일반 상식과 경험칙을 재판규범으로 삼아 노동자의 손을 들어주지 않았을 것이다.

2011년 지적장애인을 상대로 한 성범죄를 불구속 기소한 사건에 대해 중형을 선고하고 법정구속했다. 당시는 이른바 ‘도가니 사건’으로 알려진 장애인 아동 성폭력 재판 이전으로서 지적장애인에 대한 차별적이고 온정적인 양형이 주류이던 시절이었으므로, AI 판사가 재판했더라면 집행유예와 같은 가벼운 형을 선고했을 가능성을 배제하기 어려웠을 것이다.

사안을 깊이 고민하고 당사자의 아픔에 공감하는 판사라면 AI 판사가 하지 못할 재판을 할 것이다. 재판작용은 수학 문제와 같이 하나의 정답을 찾는 기계적 작업이 아니다. 재판은 인권과 민주주의라는 헌법의 가치를 구현하기 위해 국민의 봉사자로서 겸손하게 사실을 확정하고 올바른 판단을 찾아가는 과정이라는 점을 잊지 말아야 할 것이다. 반면 AI 판사는 데이터가 가지는 편향의 문제, 블랙박스의 문제, 불공정한 판결을 뒷받침하는 논리가 오히려 강화될 위험 등을 갖고 있다. 현실의 판사를 믿지 못해 AI 판사를 찾기에 앞서 형사재판에서 배심제를 도입해 국민이 재판에 참여하는 것이 바람직할 것이다.

한동수 변호사·전 대검찰청 감찰부장

Copyright © 주간경향. 무단전재 및 재배포 금지.