EU 규제에…메타도 새 AI 유럽 출시 포기

이상덕 기자(asiris27@mk.co.kr), 고민서 기자(esms46@mk.co.kr) 2024. 7. 18. 18:06
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

멀티모달 '라마 3' 계획 접어
EU, 빅테크 지배력 제재하자
애플 신규 'AI폰' 유럽서 보류
각국 AI 위험 관리 중요성 커져
업계 자체 가이드라인 박차

메타가 유럽에서 새로운 범용 인공지능(AI) 모델을 더 이상 내놓지 않기로 결정했다. 앞서 애플이 유럽에서 '백기'를 든 이후 빅테크 기업으로서는 두 번째 철수다. 유럽연합(EU)이 올 5월 마련한 'AI법(AI Acts)'의 강도가 높다보니 버티지 못했다는 평가가 나온다. 18일 정보기술(IT) 매체인 액시오스에 따르면, 메타는 3세대 오픈소스 AI 모델인 '라마3'를 EU 회원국에서 출시하지 않는다. 메타는 "앞으로 몇 달 안에 멀티모달 기반 라마3를 출시할 예정이지만, 유럽의 예측할 수 없는 규제 환경 때문에 EU에서는 내놓지 않을 것"이라고 말했다.

메타가 이번에 유럽에서 라마3 배포 및 사용을 금지하면서, 유럽 기업들은 이를 사용할 수 없게 됐다. 위반 시 저작권 침해·손해배상 소송에 직면할 수 있다. 또 라마3를 기반으로 개발될 차세대 스마트 글라스 역시 유럽에서는 출시가 안될 것으로 보인다. 다만 영국에서는 종전대로 AI 모델을 내놓을 것으로 전해졌다.

메타의 AI 철수 배경은 EU의 강도 높은 규제 때문인 것으로 보인다. 앞서 애플 역시 아이폰15 일부 모델부터 장착될 새로운 AI 기능인 '애플 인텔리전스'를 유럽에서는 배제하겠다는 뜻을 밝힌 바 있다.

EU는 가장 강도 높은 AI 안전을 요구하는 지역이다. 특히 EU의 AI법은 '범용AI모델(GPAI)'에 대한 별도 규칙을 둘 정도로 엄격하다. 범용 AI를 개발하는 기업은 EU 저작권법을 준수해야 한다. AI 기업은 AI 학습에 투입한 데이터 세트 목록을 공개해야 하고, 사용자가 삭제를 요구할 경우 이에 응해야 한다. 또 적대적 테스트를 실시하고, AI 모델이 보건·안전을 위협할 경우 완화할 대책을 마련해야 한다. 이를 위반할 경우 전 세계 매출의 최대 7%를 벌금으로 부과 받을 수 있다. 메타는 AI 모델을 무료로 배포하는 오픈소스 전략을 취하고 있어 EU 요구에 응하기 어려운 것으로 알려졌다. 사용 기업이 어떤 데이터를 학습했는지 파악이 불가능할뿐더러 데이터 세트 목록을 공개할 경우 저작권 소송에 휩싸일 수 있다.

EU는 빅테크에 대해 강도 높은 '반독점' 조사도 수행 중이다. 이날 로이터는 EU 문건을 인용해 EU 집행위원회가 AI 업계를 상대로 "삼성전자가 갤럭시 S24에 구글 '제미나이 나노'를 탑재하면서 다른 생성형 AI 시스템을 제한하는지 물었다"고 보도했다. 이번 조사는 구글과 삼성에 AI 파트너십 관련 정보를 요청한 데 이은 후속 조치로 보인다. 로이터는 "구글과 삼성을 상대로 각각 반독점법 위반 조사를 개시하는 데 영향을 줄 수 있다"고 덧붙였다.

상황이 이렇자 AI 모델을 개발하고 관련 서비스를 운영하는 주요 테크 기업들은 'AI 오남용'을 방지하기 위한 자체 대책 강화에 역점을 두고 있다. 특히 한국의 경우 아직 AI 관련 기본법이 마련되지 않은 상황이다 보니 사업에 장애물이 될 수 있는 위험 요소를 사전 차단하기 위한 조치로 'AI 안전'에 주목하는 테크 기업이 많은 분위기다. 일례로 자체 AI 윤리 기준이 있는 네이버만 해도 AI의 통제 상실과 악용 문제를 방지하는 차원에서 지난달 '네이버 AI Safety Framework(ASF)'라는 자체 대응 체계를 추가 신설한 바 있다. AI 시스템이 야기할 수 있는 위험을 각각 '통제력 상실 위험'과 '악용 위험'으로 정의하고, 이에 맞춰 최고 성능의 AI 기준 수준 및 시스템에 대해선 3개월마다 위험 평가를 진행하는 등 보다 세밀해진 가이드라인을 만들었다.

구글은 자사 대표 동영상 플랫폼인 유튜브에서 난립하는 AI 콘텐츠 문제를 의식해 지난 3월부터 AI로 만들어진 콘텐츠에 '생성·합성 여부'를 표시하는 라벨링 적용을 시작했다. 카카오도 글로벌 오픈소스 커뮤니티인 'AI얼라이언스'에 국내 기업 중 최초로 가입해 안전성을 담보하는 AI 연구개발에 힘을 싣고 있다.

[이상덕 기자 / 고민서 기자]

Copyright © 매일경제 & mk.co.kr. 무단 전재, 재배포 및 AI학습 이용 금지

이 기사에 대해 어떻게 생각하시나요?