법정까지 스며든 생성형 A… 국내는 아직 관련 규정 미비

팽동현 2024. 2. 21. 06:11
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

법정에 스며드는 생성형AI 주제로 오픈AI 달리로 생성한 이미지.

생성형 AI(인공지능)가 법정에도 변화를 가져오고 있다. 법원의 AI 이용 관련해 일부 선진국들이 벌써 원칙을 마련한 가운데, AI 거버넌스 선도를 목표하는 한국에서도 준비가 필요하다는 의견이 나온다.

최근 NIA(한국지능정보사회진흥원)는 '해외 사법기관 인공지능 이용 지침의 주요 내용 및 시사점' 보고서를 통해 캐나다와 영국 사례를 소개했다. 이 두 국가는 사법기관 문서 조사나 법원 제출 문서 작성 등에 AI 사용 시 준수 지침을 지난해 12월 각각 마련했다. 앞서 호주와 뉴질랜드 등 같은 영연방 국가들도 유사한 지침을 내린 바 있다.

지난해 미국에서는 두 변호사가 챗GPT로 생성한 허구의 사례를 제출했다가 적발돼 뉴욕주 법원이 5000달러(약 670만원)씩 벌금을 부과했다. 영국에서도 국세관세청 상대로 소송을 제기한 원고가 제시한 선례들이 생성형AI로 허위 작성된 것으로 의심돼 기각된 경우가 나왔다. 벌써부터 이런 부작용이 등장하는 한편, 법원 업무 효율성 증가와 더불어 법무 서비스 대중화에도 기여할 거란 기대도 공존한다. 미국의 경우 증거자료 수집·파악·선별 등에 AI기반 TAR(기술지원리뷰) 활용도 이미 자리잡고 있다.

캐나다와 영국은 개별 법원의 생성형AI 사용을 허용하되 사용여부를 명시하고 정확성을 확인하도록 했다. 먼저 캐나다는 소송과정에서 AI를 사용해 문서를 작성한 경우 맨 앞에 그 사실을 표시하도록 했다. 법원이 준수할 7가지 원칙으로 △의사결정 등에 대한 책무 △기본권과 공정한 심리 등 보장 △차별 재생산·악화 방지 △정확성 위해 확인·검증된 데이터만 사용 △투명성 위해 모든 데이터 처리방법 대상 외부감사 △보안 갖춘 환경서 데이터 저장·관리 △판사·재판연구원의 AI생성물 검증·감시 등을 수립했다.

캐나다보다 먼저 발표된 영국의 '법관 대상 AI 지침'의 내용도 비슷하다. 7가지 준수사항으로 △AI 이해 및 적용 △기밀성 및 개인정보 보호 △책무 및 정확성 보장 △편견 주의 △보안 △책임 부담 △이용자의 AI 사용 여부 확인 등을 내세웠다. 다만 할루시네이션(환각·거짓) 등 현재 AI 기술의 한계에 대해 인식하고, 또 챗GPT 등이 미국의 법과 사례 위주로 학습된 점도 주의하는 게 눈에 띈다. 이용자가 입증할 수 없는 정보의 검색이나 법률 분석에 활용하는 것도 부적절하다고 봤다.

국내의 경우 법원, 변호사, 기타 소송 당사자의 생성형AI 이용에 관한 법규가 아직 없는 상황이다. 보고서에선 캐나다와 영국이 연방법원 및 사법부 차원에서 생성형AI 사용 관련 일관된 이용 원칙 관행을 수립함으로써 방향성을 제시한 것에 주목했다. 생성형AI 확산세를 고려해 국내에서도 이용원칙이나 준수사항 등 마련을 적극 검토할 필요가 있고, 판결문에 대한 공개학습 활용방안 등도 데이터 확보를 위해 필요하다고 제안했다.

과기정통부 AI법제정비단에서 활동 중인 오정익 법무법인 원 변호사는 "양국 모두 AI 활용 가능성을 인정하면서도 그 주의점에 방점을 두고 있다. 이는 사법 분야 특성과 현재 기술 한계 등을 고려할 때 타당한 접근이며 참고할 만하다"면서 "나아가 사법 분야에서 AI를 적극 활용하기 위해서는 정부와 법조단체 등 차원에서 부정확성 등을 검증할 수 있도록 하고, 보완수단 마련 등을 위한 충분한 연구와 검토가 선제적으로 진행될 필요가 있다"고 밝혔다.

보고서에선 사법 분야 AI 활용 가이드라인 수립 시 고려사항으로 △개인정보 및 프라이버시 보호 △편견 및 차별 방지 △개별 사례의 일반화 오류 방지 △학습데이터 정확성·투명성·명확성·구체성·보안성 확보 △사법부와 소송대리인 등의 책임·책무성 보장 △내부 데이터 거버넌스 수립과 외부 제3자 검사·검증 △AI 활용 결과물 객관성 확보 및 외부 제3자 검증 △구체적 사례 제시 통해 지침 실효적 이행 지원 △AI 기술 및 그 한계에 대한 이해 제고 △교육훈련과 전문인력 확보 등으로 AI리터러시 강화 등 10가지를 제시했다.

보고서를 작성한 채은선 NIA 수석연구원은 "캐나다의 경우 비교적 간단한 지침으로 생성형AI 활용을 허용하면서도 부작용을 막기 위한 최소한의 안전장치를 갖췄다. 아직 관련 지침이나 규정이 부재한 국내에서도 이에 대한 준비가 필요해 보인다"며 "생성형AI 활용을 마냥 금하거나 터부시하기보다는 바람직한 활용방안을 모색할 때고, 이를 위한 AI리터러시 함양뿐 아니라 그 사용 과정과 결과에 대한 독립적인 검증 및 감사 등 체계도 갖출 필요가 있다"고 설명했다.

최신기술 관련해 흔히 일어나는 무작정 도입이 아니라 신중한 검토와 접근도 요구된다. 최경진 한국인공지능법학회장(가천대 법학 교수)은 "법정의 생성형AI를 활용하려면 정확성, 신뢰성, 공정성이 모두 요구되므로 모든 판례에 대한 학습데이터 활용도를 높여야하고, AI를 지속적으로 고도화하는 피드백 작업도 동반돼야 한다"며 "자칫 신뢰나 투명성 등이 깨진 모습을 보인다면 법정 내 AI 활용은 더뎌질 수 있다"고 짚었다.

팽동현기자 dhp@dt.co.kr

Copyright © 디지털타임스. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?