EU 의회, 인공지능법 규정 승인

김정아 2023. 5. 15. 19:31
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

이 기사는 국내 최대 해외 투자정보 플랫폼 한경 글로벌마켓에 게재된 기사입니다.

EU(유럽연합)이 인공지능(AI)의 오용을 규제하기 위한 인공지능법 규정을 승인했다.

EU의 AI 법은 AI 응용프로그램을 허용할 수 없는 위험, 고위험, 제한적 위험, 최소 위험 또는 무위험의 4가지 수준으로 분류하고 있다.

그러나 영국의 로펌 클리포드 챈스의 기술그룹 변호사인 데시 사보바는 EU의 규칙은 윤리적 AI원칙을 법규화한 것으로 "글로벌 표준"이 될 것이라고 말했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

왜곡및 조작기술, 생체인식분류, 사회신용평가용 AI 금지
생성AI 모델 공급자 공개전 안전 및 위험평가 의무화
이 기사는 국내 최대 해외 투자정보 플랫폼 한경 글로벌마켓에 게재된 기사입니다.

EU(유럽연합)이 인공지능(AI)의 오용을 규제하기 위한 인공지능법 규정을 승인했다. 

15일(현지시간) CNBC에 따르면, EU의회는 서구에서 첫 제정이 될 인공지능법 규정의 승인을 완료했다. 중국은 이미 기업이 챗GPT와 같은 생성AI 제품을 개발하는 방법을 관리하는 규칙을 제정했다. 

이 법은 AI 시스템이 유발할 수 있는 위험 수준에 비례해 시스템에 대한 의무를 설정했으며 챗GPT와 같은 ‘기초모델’ 공급자에 대한 요구 사항도 제시했다. 

EU의 AI 법은 AI 응용프로그램을 허용할 수 없는 위험, 고위험, 제한적 위험, 최소 위험 또는 무위험의 4가지 수준으로 분류하고 있다.

허용할 수 없는 위험 응용 프로그램은 기본적으로 금지되며 EU내에서 유통될 수 없다. 
여기에는 다음이 포함된다.

• 행동을 왜곡하기 위한 기술이나 조작 등 기만적 기술을 사용한 AI 시스템

• 개인 또는 특정 집단의 취약점을 악용하는 AI 시스템

• 민감한 속성 또는 특성에 기반한 생체 인식 분류 시스템

• 사회 신용 평가 또는 신뢰성 평가에 사용되는 AI 시스템

• 범죄를 예측하는 위험 평가에 사용되는 AI 시스템

• 무차별적 스크래핑으로 얼굴 인식DB를 생성하거나 확장하는 AI 시스템

• 법 집행,국경 관리,직장,교육 분야에서 감정을 추론하는 AI 시스템

또 대규모 언어 모델 및 생성 AI와 같은 ”기초 모델”개발자는 모델을 공개하기 전에 안전 점검, 데이터 거버넌스 조치 및 위험 완화를 하도록 의무화됐다. 

로펌 링크레이터의 변호사인 세이언 펠리반은 “AI 모델 제공자는 (인간의)기본권, 건강, 안전, 환경, 민주주의 및 법치에 대한 위험을 평가해 완화 조치를 반드시 해야한다”고 지적했다. 또 논란이 되는 “데이터 소스의 적합성 및 편향 가능성을 조사하는 등 데이터 거버넌스에 대한 요구 사항도 따라야한다”고 덧붙였다. 

EU의 인공지능법은 일차로 유럽 의회에서 통과됐지만 전 회원국에 발효되기까지는 시간이 걸릴 것으로 보인다. 

EU의 인공지능 법규에 대해 기술 업계는 우려를 표명했다. 유럽 컴퓨터통신산업협회(CCIA)는 AI법의 적용 범위가 지나치게 확대돼 무해한 형태의 AI까지 잡을 수 있다고 지적했다. 

그러나 영국의 로펌 클리포드 챈스의 기술그룹 변호사인 데시 사보바는 EU의 규칙은 윤리적 AI원칙을 법규화한 것으로 “글로벌 표준”이 될 것이라고 말했다. 

김정아 객원기자 kja@hankyung.com

클래식과 미술의 모든 것 '아르떼'에서 확인하세요
한국경제신문과 WSJ, 모바일한경으로 보세요

Copyright © 한국경제. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?