“책임감 있는 AI 위해 GIFCT 같은 글로벌 포럼 구축해야”..구글
[파이낸셜뉴스] “‘테러리즘 대응을 위한 국제 인터넷 포럼(GIFCT)’처럼 인공지능(AI) 분야에서도 정보 공유, 안전 표준에 대한 협력, 연구 자금 지원, 모범 사례 공유 등 모든 이해관계자가 AI의 이점을 파악하고 극대화하는 데 도움이 되는 협업을 강화해야 한다.”
전 세계적으로 AI패권경쟁과 함께 고위험 AI 규제에 대한 논의가 뜨거운 가운데 GIFCT 같은 협력체를 구축해야 한다는 정책 제언이 나왔다. GIFCT는 글로벌 IT 기업들이 테러리스트와 폭력적인 극단주의자들이 디지털 플랫폼을 악용하는 것을 막기 위해 설립된 조직이다.
구글 아시아태평양 지역 대외정책 총괄(VP)인 미카엘라 브라우닝( 사진)은 11일 파이낸셜뉴스와의 단독 인터뷰를 통해 “GIFCT 같은 협력체는 AI를 규제하는데 있어 공통된 언어와 접근방식을 구축하고, 국가 간 신뢰할 수 있는 데이터 교류를 보장해야 한다”며 이같이 밝혔다.
구글은 또 오는 13일부터 15일까지 과학기술정보통신부와 함께 ‘대한민국 인공지능위크 2023’을 개최한다. 브라우닝 총괄은 “구글은 정부와 함께 변화를 가져올 수 있다고 생각되는 기술과 프로그램에 대해 협업하고자 한다”며 “이번 AI위크를 통해 미래 혁신을 위한 인재 양성이라는 과기정통부 핵심 아젠다를 뒷받침하고 한국 경제에 기여하는 의미 있고 가시적인 이니셔티브를 추진할 수 있길 기대한다”고 말했다.
다음은 브라우닝 총괄과의 일문일답.
ㅡ구글 아시아태평양 대외정책팀 주요 이슈는
▲각국 정부와 협력하여 끊임없이 진화하는 기술이 구글 제품을 통해 사람들과 사회, 경제, 기업들에게 어떠한 영향을 미칠 것인지 더욱 잘 이해시키기 위해 노력하고 있다. 특히 최근 AI는 모든 사람의 관심사가 되었다. AI는 이미 엄청난 혜택을 제공하는 기술이며, 앞으로 더 발전하면 모든 사람의 삶을 개선할 수 있는 잠재력을 가지고 있다. 구글은 개인, 기업, 정부가 AI 잠재력을 활용하는 동시에 AI 발전과 AI 공공 정책을 올바르게 수립하여 관련 리스크를 완화할 수 있는 책임감 있는 접근 방식을 취하고 있다.
ㅡ각국 규제 기관 및 국가들과 어떻게 협력하나
▲AI 책임에 대해서는 모두가 공동 접근해야 하며, 이를 위해서는 다양한 관점을 모아 적절한 균형을 찾을 수 있어야 한다. 그렇지 않으면 위험을 완화하는데 어려움을 겪거나 한 관점에 치우쳐 오히려 AI가 사람들 삶을 더 나은 방식으로 변화시키고 사회·과학적인 문제들을 해결할 수 있는 기회를 놓치게 된다. 구글은 AI 거버넌스와 관련해 다중 이해관계자 접근 방식을 지지한다. 여기에는 산업, 연구, 민간이 모두 책임감 있는 AI를 개발하고, 위험 기반 규제와 국제적인 정책 조율의 모범사례를 더욱 발전시키고 공유할 수 있는 포럼도 해당된다.
ㅡ싱가포르의 ‘AI 검증 프레임워크’는 무엇인가
▲구글은 AI 규제에 대한 이니셔티브를 지원하고 있으며, 싱가포르의 AI 검증 프레임워크는 책임감 있는 AI를 실천하고 투명성을 장려할 수 있는 핵심 이니셔티브라 할 수 있다. 구글은 최근 AI 검증 파운데이션에 초기 멤버로 합류했으며, AI 개발에 있어 투명성과 책임감을 장려하고 AI 시스템이 공정하고 안전하도록 보장하는 노력에 동참하게 된 것을 기쁘게 생각한다.
ㅡ유럽연합(EU) AI 법에 대한 견해도 궁금하다
▲구글은 균형 잡힌 위험기반 AI 규제 접근방식과 AI 거버넌스에 대한 논의를 지지한다. 유럽집행위원회(EC)의 규제방식이 제시하는 많은 요구조건도 구글의 기존 지침 및 구글 AI 원칙과 뜻을 같이하고 있다. 동시에 더욱 명확한 설명이 필요한 부분도 있다. 유럽의회와 집행위원회에서 제안한 일부 수정안은 기존의 EU AI 법 원안의 범위를 확대, 위험도가 낮은 AI 영역의 비용을 높이고 서비스를 제한해 유럽 혁신과 경쟁력을 악화시킨다. 정책 입안자는 위험 기반 접근 방식을 유지해 중대하고 돌이킬 수 없는 피해를 야기할 가능성이 있는 부분에만 초점을 맞춰야 한다.
ㅡ한국정부도 고위험 AI 규제에 집중하고 있다
▲AI의 잠재력은 엄청나다. 그렇기 때문에 AI를 사용하지 않을 경우 잃게 되는 이점뿐 아니라 피해의 가능성과 심각성까지 고려해야 한다. AI의 올바른 활용 사례에 대해 균형 잡히고 공평하며 위험을 기반으로 한 접근 방식을 적용하는 것이 매우 중요하다. 위험을 효과적으로 관리하기 위해서는 기술, 애플리케이션, 활용 사례의 복합적 요소를 바탕으로 시스템이나 제품을 평가하고 관리해야 한다. 위험도가 높은 시스템과 낮은 시스템에 모두 불균형적인 규정 준수 의무를 부과하기보다는 위험도 높은 애플리케이션 배포자에게 필요한 규정을 적용해야 한다.
ㅡAI 규제 정책을 더 세분화해 전략을 마련한다면
▲규제당국이 처음부터 모든 것을 다 준비할 필요는 없다. 예를 들어 제품 안전성을 보장하고 불법적인 차별을 금지하는 법과 같은 기존의 규제 지침과 프레임워크가 존재하며, 이미 많은 규제들이 AI에 적용되고 있다. 국가 차원의 규제와 관련해서는 ‘허브 앤 스포크(중앙집중식)’ 접근 방식을 지지한다. 이 모델에서는 중앙 기관이 헬스케어, 금융, 교통 분야에서 AI 구현을 감독할 수 있도록 전문성을 갖춘 부문별 규제 기관에 지침을 제공한다. 새로운 정책을 수립할 때는 모든 AI 시스템에 무차별적으로 적용되지 않고 물리적 피해를 유발할 가능성이 있는 고위험 AI 애플리케이션에 규제가 집중되어야 한다.
#구글 #AI #과기정통부
Copyright © 파이낸셜뉴스. 무단전재 및 재배포 금지.
- 최현욱, 장난감 자랑하다 전라노출…사진 빛삭
- 남편상 사강, 4년만 안방 복귀…고현정 동생
- "눈 떴는데 침대에 피가 흥건"..토니안, 정신과 증상 8가지 나타났다 고백 [헬스톡]
- 이재명 유죄에 비명계 뜬다…민주 균열 가속화
- '8번 이혼' 유퉁 "13세 딸 살해·성폭행 협박에 혀 굳어"
- "치마 야하다고"…엄지인, 얼마나 짧기에 MC 짤렸나
- 영주서 50대 경찰관 야산서 숨진채 발견…경찰 수사 착수
- "조카 소설, 타락의 극치" 한강의 목사 삼촌, 공개 편지
- "엄마하고 삼촌이랑 같이 침대에서 잤어" 위장이혼 요구한 아내, 알고보니...
- "딸이 너무 예뻐서 의심"…아내 불륜 확신한 남편