[박성필의 인공지능 거버넌스] 인공지능, 혁신과 규제의 기로에 서다![수담활론]

김영권 2023. 6. 10. 21:39
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

[파이낸셜뉴스] [수담활론(手談闊論)]은 각 분야의 전문가들의 글(수담)을 통해 우리사회 곳곳의 이슈들을 파악하고 보다 쉽게 이해하기 위해 마련됐습니다. <편집자 주>
박성필 KAIST 문술미래전략대학원장

"인공지능(AI)으로 인한 멸종(extinction) 위험을 완화하는 것은 팬데믹이나 핵전쟁 같은 다른 사회적 규모의 위험과 함께 세계적인 우선 순위가 되어야 한다." 5월 29일 비영리 단체인 'Center for AI Safety (CAIS)'가 발표한 한 문장 성명서다. 이에 대해 6월 9일 현재 업계 리더 554명이 서명했다. 서명자들은 AI를 디스토피아(Dystopia)의 서막으로 여기는 몽상가들이나 선도적인 AI 개발업체들을 시샘하는 경쟁자들이 아니다. AI의 대부 제프리 힌튼과 요슈아 벤지오, 구글 딥마인드의 최고경영자(CEO) 데미스 허사비스, OpenAI의 CEO 샘 알트만, 앤트로픽의 CEO 다리오 아모데이 등이 가장 먼저 서명했다. 올해 3월 'Future of Life Institute(FLI)'가 발표한 "거대한 인공지능 실험을 멈춰라"라는 공개 서한도 비슷한 맥락이었다. 여기에는 6월 9일 현재 엘론 머스크, 스티브 워즈니악, 유발 하라리 등 3만1810명이 서명했다. 이 서한은 세계의 모든 AI 개발자들에게 강력한 AI의 개발을 일시 중단하고 AI의 위험을 통제할 수 있는 메커니즘을 마련할 것을 촉구했다. 반면 구글의 CEO 순다르 피차이를 비롯한 많은 기업인과 전문가들은 이 서한에 반대하거나 회의적인 입장을 표명했다. 이들은 AI가 창작의 영역에서 인간의 조력자 또는 협력자가 될 것이라고 믿으며 FLI의 제안이 비현실적이라고 주장한다.

최근 몇 해 동안 AI 거버넌스(AI Governance)에 대한 많은 원칙과 가이드라인이 제시됐다. 구글 스칼라에서는 2019년 이후 'AI Governance'를 다룬 문헌이 4270건, 'AI Law'가 언급된 문헌은 1180건 각각 검색된다. 'AI Ethics'를 다룬 문헌은 1만6800건이나 된다. 유럽연합(EU)은 올해 세계 최초 인공지능 법률 'The AI Act'를 제정할 예정이다. 초안의 주된 내용은 △중국 정부의 사회 신용평가 시스템처럼 허용할 수 없는 위험을 초래하는 애플리케이션은 금지하고 △입사 지원자의 순위를 매기는 이력서 스캔 도구 등 고위험 애플리케이션은 특정한 법적 요건에 따르도록 하며 △기타 명시적으로 금지되거나 고위험군으로 분류되지 않은 애플리케이션은 규제 대상에서 제외하는 것이다.

성명서의 서명자들처럼 AI 거버넌스를 시급하고 중대한 과제로 인식하는 이들이 많지만 AI의 위협이 과장됐고 아직은 통제할 만한 수준이므로 시기상조라는 의견들도 적지 않다. 필자는 AI 거버넌스 구축이 매우 시급하다는 입장에서 시리즈를 통해 인공지능 거버넌스의 다양한 내용들을 다루고자 한다. 인공지능 거버넌스는 인공지능의 편익을 향유하면서도 그에 수반되는 비용과 위험을 최소화하기 위한 기술적, 윤리적, 사회적 노력 및 궁극적으로는 이를 강제할 수 있는 법과 제도를 포괄하는 개념이다.

도대체 AI가 인류에게 어떤 위협이 되는가? AI의 의사결정의 투명성, 데이터의 보안과 프라이버시, AI의 개발, 유통, 이용에 따른 피해 발생시 책임 등 AI 자체의 기술적 특성 또는 AI 생태계의 이해관계자들에 대한 이슈들이 대표적이다. 인간의 불완전성으로 인한 데이터의 편향이 학습 과정을 통해 AI에 그대로 반영되는 문제도 자주 논의된다. 2016년에 마이크로소프트가 트위터를 통해 출시한 'Tay'라는 AI 챗봇이 인종 차별적인 발언을 쏟아내는 바람에 16시간만에 서비스가 종료된 것이 좋은 예이다. AI의 사회적 영향에 대한 논의도 흔하다. 여러 직업들이 사라지고 산업구조가 재편될 것이라는 전망 때문이다. 심지어 최근 한 연구에 따르면 AI 챗봇은 20~50개의 쿼리를 처리할 때마다 서버를 식히기 위해 500ml의 물을 사용한다고 한다. 물론 AI 구동에 소요되는 어마어마한 양의 전기에 대한 고민도 있다. AI가 인류의 지속 가능성까지 위협하고 있다는 주장도 가능한 샘이다.

지식재산(IP) 분야에서도 AI와 관련된 많은 이슈가 제기되고 있다. 특히 AI가 독립적 발명과 창작의 주체로 등장하면서 인간을 유일한 발명과 창작의 주체로 상정하고 있는 지식재산 법체계가 도전 받고 있다. 유발 하라리는 최근 이코노미스트 기고문에서 AI가 인류 문명의 운영체계를 해킹했다고 역설했다. 인간 문화의 구성 요소인 글, 소리, 이미지를 학습한 AI가 이제 글, 소리, 이미지의 생산자로 등장한 현실을 풍자한 것이다. 생성형 AI가 창작하는 디지털 콘텐츠가 기하급수적으로 늘어나 결국 인터넷 공간을 점령하지 않을까 우려하는 목소리들도 있다.

일반적으로 혁신의 주체들은 규제를 싫어하기 마련이다. 그러기에, CAIS와 FLI의 성명서에 서명한 AI의 아버지들, OpenAI, 구글 딥마인드, 애플, 테슬라의 경영자들, 수많은 개발자들의 AI 규제 요구는 매우 이례적이다. 기업들과 각국 정부가 통제되지 않은 AI 개발의 파괴적 결과를 진지하게 고민해야 하는 이유다. 이들은 AI 혁신 성과의 향유와 지속가능한 개발을 위해서는 오히려 규제가 필요하다는 사실을 간파한 것이다. 그런데 CAIS와 FLI 성명서의 숨은 맥락, 즉 AI 개발 업체들의 고충도 함께 이해해야 한다. 그것은 모든 개발 업체에 대한 규제가 동시에 시행되지 않는 한 파괴적 결과가 우려되더라도 어느 업체도 AI 개발을 중단할 수 없는 상황, 즉 새로운 유형의 '치킨게임'이다. 스스로 개발을 중단하는 회사는 경쟁에 밀려 퇴출되는 길을 선택하는 샘이다. 국제 관계에서의 AI 규제 양상도 유사하다. 규제를 준수하는 국가의 기업은 비준수 국가의 경쟁자들로 인해 글로벌 시장에서 경쟁력을 잃게 된다. AI 규제에 대한 정부간 협력이 불가피한 이유다.

한편, 올해 세계 최초의 AI 법을 통과시키려 하고 있는 EU는 마음이 조급하다. EU는 2018년 제정된 'General Data Protection Regulation (GDPR)'이 세계적인 영향력을 행사했던 것에 큰 자부심을 느끼고 있다. 더 나아가 올해 제정될 The AI Act가 글로벌 표준이 되기를 바라고 있다.

다른 나라의 정부, 국제기구, 기업, 연구기관과 단체들은 어떤 상황일까. 미-중 무역갈등으로 인해 중국이 자국 AI 개발업체 규제에 동참하지 않는다면 다른 나라들의 규제 노력은 무의미한 것이 아닐까. 우리 정부와 기업들은 어떻게 대처해야 할까. 구체적인 AI 거버넌스 이슈들에 대해서는 어떤 제도적, 법적 대응이 필요할까. 앞으로 시리즈를 통해 다양한 관점에서 AI 거버넌스를 논하고자 한다. 모든 논의의 전제는 AI가 인간에 의해 개발된 기술이고 또 인간을 위해 존재하는 기술이라는 사실이다.

ᅠ/박성필 KAIST 문술미래전략대학원장


※이 글은 필자의 주관적인 견해이며, 본지의 편집방향과 다를 수 있습니다.

Copyright © 파이낸셜뉴스. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?