법무법인 태평양-한국데이터법정책학회, '글로벌 AI 규제' 웨비나 성료

입력 2021. 10. 22. 14:59
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

법무법인(유한) 태평양(이하 “태평양”, 대표변호사 서동우)이 지난 20일 ‘인공지능 규제(AI regulation)안 어디까지 왔나’를 주제로 개최한 웹 세미나(웨비나)를 성황리에 마쳤다. 이번 웨비나에 참여한 기업 및 정부기관 관계자는 200여 명으로, AI 규제안에 대한 뜨거운 관심을 확인할 수 있었다.

이날 웨비나에서는 국내 인공지능(AI) 분야의 전문가들이 모여 빠르게 변화하고 발전하고 있는 글로벌 AI 산업과 AI 규제의 동향을 살펴보고, 국내에서 발표된 AI 가이드라인을 중심으로 법제화 현황 및 향후 고려해야 할 사항들을 살펴봤다.

첫 번째 연사인 한국행정연구원 방정미 박사는 ‘주요 국가의 AI 윤리 및 법규제 동향 분석 및 시사점’ 발표에서 발전 속도가 빠른 AI 기술의 개념을 한정적으로 정의하기 보다 유연하게 받아들일 필요가 있다고 설명했다.

방정미 박사는 “AI 기술은 현재 빠르게 발전하고 있다. 따라서 현재 상황에서 AI 기술은 정의할 수 있는 개념이 아니라고 생각한다”며 “오히려 지속적으로 진화하는 개념이다. 새로운 AI 기술이 개발되면 기존의 정의는 더이상 통용되지 않기 때문”이라고 말했다.

유럽연합(EU)이 AI규제안을 내놓으면서 AI 기술을 정의한 ‘AI 시스템’에 대해선 “법안을 만들기 위해선 개념 정의가 필요하기 때문이다. 다만, 이러한 정의가 정말 필요한 규제를 할 수 있을지는 고민해봐야 한다”면서도 “EU가 AI 규제안을 통해 일반 원칙으로써 모든 것을 아우르는 법안을 발표한 만큼 우리나라도 대비를 해야하는 시점이라고 생각”이라고 말했다. 그러면서도 방정미 박사는 “AI 규제의 실효성 확보수단이 오로지 일반법 제정만으로 확보되는 것은 아니라고 생각한다”며 “정부가 적절한 정책수단을 개발한다면 효과적으로 활용할 수 있을 것”이라고 주장했다.

두 번째 연사로는 태평양 윤주호 변호사가 나섰다. 윤주호 변호사는 ‘국내 AI 법제의 현황, 이슈와 향후 과제’라는 주제의 발표를 했다. 윤주호 변호사는 “현재 우리나라는 AI 규제를 위한 일반법은 존재하지 않지만 간접적 규정을 통해 규제하고 있는 상황”이라고 말했다.

특히 그는 AI 기술의 개발과 활용에 있어 간접적 규제 등으로 인해 복잡한 상황에 놓인 기업의 대응에 대해서도 심도 있는 조언을 했다. 윤주호 변호사는 “간접적으로 규제하는 법이 있고, 다양한 의무가 따르기 때문에 AI 개발과 활용해 있어 위험 평가가 필요하다. 체크리스트를 통해 판단하는 것이 효과적”이라며 “국내의 AI 가이드라인은 사회적인 합의점을 도출하기 위해 만들어진 만큼 준수할 필요가 있으며, 가이드라인 중 기업에 맞는 체크리스트를 구성하면 법을 위반하지 않으며 AI를 잘 활용할 수 있을 것”이라고 강조했다.

발표 이후에는 한국데이터법정책학회장인 이성엽 고려대 교수가 좌장을 맡은 패널토론이 진행됐다. 패널로는 태평양 이상직 변호사와 한양대 법학전문대학원 윤혜선 교수, 카카오엔터프라이즈 고재희 이사, 과학기술정보통신부 이재형 인공지능기반정책과장, 방송통신위원회 배춘환 이용자정책총괄과장, 개인정보보호위원회 김직동 신기술정보과장 등 AI 분야의 전문가들이 참석했다.

토론에서는 AI 규제에 나서기 전 사회적 합의를 통해 방향성을 공유하는 것이 중요하다는 의견이 나왔다. 한양대 법학전문대학원 윤혜선 교수는 “일반적으로 규제는 기술이나 산업이 성숙했을 때 논의한다. 이후 문제에 대응하는 방식”이라며 “AI는 이와 반대다. 기술 및 산업이 성숙하기 전 문제가 될 만한 것을 관리하고 있다”고 말했다. 이어 “규제에는 철학이 있어야 한다. EU의 AI 규제 철학은 기본권과 안전이다. 우리나라도 어떠한 규제 철학 하에서 AI기술을 규제할 것인지 사회적 합의가 먼저 이뤄져야 한다”고 주장했다.

카카오엔터프라이즈 고재희 이사는 “AI 산업은 우리에게 매우 중요하지만, ‘편향’, ‘차별’ 등의 이슈가 있다. 기업이 느끼는 것은 AI의 편향성은 편향된 정보 때문이 아닌 정보의 부족으로 발생할 수도 있다고 본다”며 “결국 AI 기술을 두고 시각차가 존재하는 만큼 서로가 인식하고 있는 기술과 윤리에 대한 기준을 맞추기 위한 합의 과정이 필요하다. AI 규제를 논의할 때 정부, 기업 등이 함께 방향성을 수립해 나갔으면 좋겠다”고 말했다.

AI 윤리에 대한 이야기도 빠지지 않았다. 태평양 이상직 변호사는 “AI 윤리를 이야기하는 이유는 그만큼 AI 기술이 삶에 미치는 긍정적·부정적인 영향이 크기 때문이다. 결국 AI 윤리를 논하기 위해선 시스템 자체가 윤리적이어야 하고, 이를 운용하는 사람이 윤리적이어야 한다”고 말했다. 이어 “AI 규제에 대해서도 윤리로 다뤄야할 부분과 법으로 다뤄야할 부분을 구분해야 한다”고 강조했다.

특히 이상직 변호사는 AI 윤리성 제고 방안도 제시했다. 그는 “AI 윤리성을 제고하기 위해선 먼저 정부가 윤리 기준을 만들어야 하며, 민관이 AI 컨플라이언스 충실히 받야아 한다”며 “특히 AI는 외부의 데이터를 활용하기 때문에 사회적 가치를 추구해야 한다. 이는 ESG에 관한 부분으로써 AI 기업은 보다 더 사회적 책임을 다하고, ESG 활동에 대한 중요성을 자각해야 한다”고 말했다.

한편 이번 웨비나는 태평양과 한국데이터법정책학회(회장 이성엽 교수)가 공동 개최하고, 한국지능정보사회진흥원(NIA)이 후원했다.

온라인 중앙일보

Copyrightⓒ중앙일보 All Rights Reserved.

이 기사에 대해 어떻게 생각하시나요?