오픈AI 책임자 "챗GPT 악용 가능"… EU는 규제 법제화
유럽 작년부터 'AI 액트' 움직임
사회기반시설·채용 등 제외 논의
AI법 제정땐 국내에도 파장 예상
대화형 AI(인공지능) 챗GPT가 세계적으로 열풍을 일으키는 가운데 AI 규제 논의도 빨라지고 있다. 아직은 불완전한 기술에 대한 안전장치를 마련하자는 취지뿐 아니라 향후 기술패권에 대한 고려도 포함된 것으로 보인다.
챗GPT 개발을 이끄는 미라 무라티(사진)(Mira Murati) 오픈AI CTO(최고기술책임자)는 5일(현지시간) 미국 시사주간지 타임지와의 인터뷰에서 "챗GPT에 대한 이 정도 반응은 예상하지 못했다"면서도 "챗GPT는 개인화된 교육을 도울 수 있는 엄청난 잠재력을 지녔다"고 말했다.
하지만 무라티 CTO는 AI 윤리·규제 관련 질문에 대해서는 "챗GPT의 높은 인기는 일부 윤리적 문제를 불러일으켰다. AI는 오용되거나 악의적인 행위자에 의해 쓰일 수 있다"면서 "철학자, 사회과학자, 인문학자, 예술가 등 다양한 목소리를 듣는 게 중요하다"고 말했다. 이어 "AI 기업들은 소수이므로 정부 규제를 비롯해 더 많은 이들의 관여가 필요하다"면서 "(이런 개입이) 너무 이르지 않다. 기술이 미칠 영향을 고려하면 모두가 참여를 시작하는 게 중요하다"고 밝혔다.
앞서 3일(현지시간) 로이터통신의 보도에 따르면 티에리 브르통(Thierry Breton) EU(유럽연합) 내부시장 담당 집행위원은 챗GPT를 언급하면서 EU AI법(AI Act)은 이런 AI의 위험성을 해결하는 게 목표라고 밝혔다. 그는 "챗GPT가 보여주듯 AI 솔루션은 기업과 시민에게 큰 기회를 제공할 수 있지만 위험도 초래할 수도 있다. 고품질 데이터 기반으로 신뢰할 수 있는 AI를 보장하기 위해 견고한 규제 프레임워크가 필요한 이유"라고 밝혔다.
EC(EU 집행위원회)가 2021년 4월 제안한 AI법은 AI에 대한 포괄적인 프레임워크를 구축해 시민의 권리·가치·이익을 보호하면서 AI의 책임 있는 개발과 사용을 보장하는 것을 목표로 한다. AI의 투명성·책임성·공정성에 대한 조항과 고위험 AI 시스템에 대한 구체적인 규칙을 포함한다.
EU는 AI법을 올해 시행하는 게 목표지만 여전히 논의 중인 상태다. 대표적인 게 고위험 AI 시스템에 대한 분류 기준이다. 용인불가·고위험·저위험의 3단계로 나누는 초안에서는 △생체인식 △사회기반시설 △교육·직업훈련 △채용·업무평가 △신용도 △법집행 등 광범위한 영역의 AI시스템을 고위험으로 규정했다. 이대로라면 챗GPT는 교육·채용과 신용평가 등 고위험 목적을 포함한 범용 AI 시스템으로 간주돼 데이터 거버넌스와 위험관리를 위한 시스템 구축 및 투명성을 위한 정보제공, 감독·보안 등 의무가 주어지게 된다.
앞서 EU는 GDPR(일반개인정보보호법) 제정으로 정보보호 분야 글로벌 트렌드를 주도한 바 있다. 국제 로펌 DLA파이퍼 보고서에 따르면 지난해 EU GDPR에 의해 부과된 벌금은 29억2000만유로(약 3조9450억원)로 전년보다 168%나 증가했다. 특히 지난해에는 AI 학습용 데이터 관련 규제조치가 강화됐다. 향후 AI법까지 제정되면 규제가 더 강화될 것으로 전망된다.
이성엽 한국데이터법정책학회장(고려대 기술경영전문대학원 교수)은 "EU AI법은 고위험 시스템이 너무 광범위하게 규정돼 좀 더 논의가 필요해 보인다"며 "EU와 국내는 상황이 다르므로 유사한 가이드라인 정도로 충분할 것 같다. 다만 글로벌에 진출해 있는 IT기업들은 AI법 통과에 대비한 준비가 필요해 보인다"고 말했다.
일각에서는 이 법안이 GDPR과 달리 미국 빅테크들을 직접 겨냥하는 것은 아니라는 해석을 내놓는다. 유럽에서 구글·페이스북 등 거대 플랫폼 기업에 의한 데이터 종속이 문제됐던 것과 달리 AI분야는 자체적인 생태계가 구축되고 있기 때문이다. 미국 브루킹스연구소는 지난해 12월 공개한 보고서에서 미국, 중국, EU의 AI 관련 정책을 짚으면서 미국과 EU가 입장을 조율할 가능성이 있다고 봤다. 실제로 지난달 양측은 농업·보건·기후·전력 등 분야에서 AI 모델을 공동 구축하기로 합의했다. 중국의 AI굴기에 대한 견제도 본격화될 것으로 보인다.
최경진 한국인공지능법학회장(가천대 법학과 교수)은 "EU AI법과 GDPR은 함께 놓고 봐야 한다. 고위험군에 대한 논의는 AI 기술이 발전될수록 확산될 공산이 크다"면서 "선도적이고 강력한 규제지만 투명성 확보가 주목적이므로, 이를 잘못 해석해 AI를 쓰지 말란 식으로 들여와선 안 될 것"이라고 짚었다.
팽동현기자 dhp@dt.co.kr
Copyright © 디지털타임스. 무단전재 및 재배포 금지.
- “난 떳떳하다” 조국 딸 조민, 인스타그램 폭발적 반응…20일 만 2만 팔로워 ‘훌쩍’
- 침묵 깬 조국 딸 조민, 김어준 방송서 작심 발언 “저도 ‘정치적 의견’ 있지만…”
- "성폭행한 친오빠와 한집에 살고 있다"…가해자 지목된 20대 또 무죄
- "나 여자예요" 선언만 하면 끝…핀란드 트랜스젠더 `천국`됐네
- 삼단봉 휘둘러 동거남 살해한 30대女…항소심도 징역 25년
- 美 "한덕수 권한대행 역할 전적 지지…수주 내 韓美 고위급 대면외교"
- 거부권 행사 韓대행 탄핵 놓고 고민 깊어지는 민주당
- 정부, 2030년 경제안보품목 의존도 50% 이하로 낮춘다… "핵심광물 민·관 공동 투자·탐사 지원 강
- `전기먹는 하마` AI에 빅테크도 `원자력` `신재생` 영끌하는데… 에너지가 정치판 된 한국
- `ABC` 강조한 구광모… "`도전과 변화` DNA로 LG 미래 세우자"