[김병필의 인공지능 개척시대] 법률 인공지능을 허하라

2024. 11. 11. 00:18
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

김병필 KAIST 기술경영학부 교수

좋은 변호사는 어떤 자질을 갖추어야 할까. 여러 자질이 있겠지만 ‘문제 해결 능력’을 손꼽을 수 있다. 의뢰인은 일생일대의 사건을 갖고 변호사 사무실을 찾는다. 그 문제를 함께 풀어가는 것이 변호사의 임무다. 그만큼 막중한 사명감을 가져야 한다. 그래서 좋은 변호사가 되기란 쉽지 않다. 그저 법전과 판례집을 외워서는 잘하기 어려운 일이다.

그러면 좋은 법률 인공지능(AI)은 어떤 역량을 갖추어야 할까. 아마도 변호사가 의뢰인의 문제를 해결하는 데 있어 도움이 되는 것이 가장 중요할 것이다. 법령과 판례를 검색해 그 내용을 요약해 알려주거나, 각종 법률 문서 초안을 작성해 주면 큰 도움이 된다. 앞으로 AI가 더 발전하면 복잡한 사건에서도 유용할 수 있다. 수백 페이지가 넘는 방대한 증거자료를 정리하는 일은 인간보다 더 뛰어날 수 있다.

「 법률 AI 활용, 법문화 제고 기여
변호사들의 일거리 늘릴 수도
서비스 신뢰도 대한 평가부터

이미 주변의 여러 변호사가 법률 AI를 제법 유용하게 활용하고 있다. 덕분에 짧은 시간에 더 나은 작업 결과를 낼 수 있다고 한다. 그 결과 의뢰인과 더 많이, 더 자주 소통하여 새로운 해법을 찾아낼 수도 있다. 이렇듯 법률 AI는 변호사를 대체하기보다는 변호사가 제 역할을 할 수 있도록 돕는 존재로 자리매김하고 있다.

그렇다면 일반인이 법률 AI를 활용할 수는 없을까. 대다수 국민에게 변호사의 문턱은 여전히 한참 높다. 적지 않은 투자를 하거나 중요한 계약을 할 때조차도 변호사 자문을 얻는 경우가 아직은 드물다. 이때 법률 AI가 큰 역할을 할 수 있다. 법적으로 어떤 사항을 유의해야 하는지 알려주고, 변호사 자문을 얻으라고 권고할 것이다. 더 많은 국민이 법률 AI에 친숙해져 법적 자문이 중요하다는 사실을 깨닫게 되면 변호사들의 일거리가 늘어날 수도 있다.

이렇게 보면 법률 AI를 잘 발전시켜 활용하는 것은 우리의 법률 문화를 한 단계 더 높이는 데 꼭 필요한 일이다. 이로써 법률 서비스의 품질과 생산성을 개선하고, 사법 접근성을 크게 높일 수 있기 때문이다. 그 결과 변호사뿐만 아니라 일반 국민도 적지 않은 혜택을 누릴 수 있다.

그렇지만 국내에서는 법률 AI를 어디까지 허용할 수 있는지 논란이 되고 있다. 얼마 전 법률 AI 서비스를 제공하는 법무법인에 대한 징계 절차가 시작되기도 했다. 현행 변호사법상 법률 AI는 오직 변호사들만 사용할 수 있고, 일반인을 대상으로 한 법률 AI 서비스는 금지되기 때문이라 한다.

그러나 항상 그렇게 해석할 일은 아니다. 법률 AI도 다양한 유형이 있기 때문이다. 현재의 법률 AI 대다수는 본질적으로 기존의 검색 엔진과 더 가깝다. 이용자가 질문하면 법률 AI가 곧장 답하는 것이 아니라, 우선 질문과 관련된 판례, 법령, 교과서 등을 검색한다. 그다음 AI를 이용해 검색된 결과를 잘 정리하고 요약해서 보여준다. 이러한 AI 활용 사례는 법률정보 검색 서비스와 마찬가지라서 현행법상 허용된다고 볼 여지가 적지 않다.

해외 AI 사업자들과의 역차별 문제도 크다. 이미 챗GPT나 제미나이(Gemini) 등 다른 범용 AI 서비스를 활용하면 생활 법률과 관련된 여러 정보를 얻을 수 있다. 이러한 해외 서비스에는 우리 법과 판례가 제대로 반영되지 못하는 경우가 적지 않은 실정이다. 그런데 오히려 정확성과 신뢰성을 크게 개선한 국내 법률 AI 서비스만을 제한하는 것은 균형이 맞지 않는다.

물론 법률 AI 기술이 불완전하다는 점을 고려하면 법률 AI를 무제한 허용하기는 어렵기도 하다. 아직 AI가 제공하는 정보의 정확성을 보장하기 어렵기 때문이다. 그러니 사람들이 법률 AI를 잘못 신뢰하여 자칫 피해를 보는 일이 없도록 막을 필요가 있다. 법률 AI가 잘못된 답을 하면 누가 책임을 져야 하는지도 명확지 않다. 쉽지 않은 문제다.

그래서 이미 여러 해 동안 법률 AI의 활용 범위를 두고 논란이 이어져 오고 있다. 다툼을 줄이고 더욱 건설적인 해법을 찾으려면 어떻게 해야 할까. 시급한 작업은 법률 AI의 신뢰도를 객관적으로 평가해 보는 것이다. 만약 문제가 되는 법률 AI의 정확성이 지나치게 낮다면, 잠정적으로 이용을 제한하는 것이 필요할 수도 있다. 이와 반대로 상당히 신뢰할 수 있는 수준이라면 이를 전혀 사용하지 못하게 막는 것은 타당한 조치라 보기 어렵다.

이처럼 기술 수준 평가를 마치면 이를 토대로 이용자 보호를 위해 어떤 안전 조치가 필요한지 정할 수 있다. 이용자에게 AI 위험성을 눈에 잘 띄게 경고하는 것이 필요할 수도 있다. 법률 AI를 전적으로 허용하거나 금지하는 것이 아니라, 적절한 안전 조치가 취해지는 것을 조건으로 허용하는 방안도 가능하다. 그에 맞추어 변호사법을 개정하거나 특례법을 제정해야 할 수도 있다. 아무쪼록 다 함께 법률 AI의 안전한 활용을 위해 현명한 해법을 찾기 위해 노력했으면 한다.

김병필 KAIST 기술경영학부 교수

Copyright © 중앙일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?