생성형 AI 거품론…무엇이 문제인가[테크트렌드]
지난해 11월 챗GPT의 등장 이후 약 1년이 지났다. 챗GPT로 대변되는 생성형 AI는 우리 사회에 엄청난 영향을 미치고 있다. 특히 생성형 AI가 촉발하는 다양한 산업에서의 생산성 향상과 새로운 비즈니스 기회에 대한 기대가 커지고 있다. 글로벌 기술기업(big tech)도 새로운 산업 패러다임 변화에 따른 기회를 선점하기 위해 치열한 패권전쟁을 치르고 있다.
하지만 생성형 AI가 가져올 변화 폭이 워낙 크고 심대한 탓에 기술에 대한 우려와 지나친 낙관론에 대한 비판의 목소리도 나오고 있다. AI 기업 최고경영자, 전문가들은 AI로 인해 초래될 인류에 대한 실존적 위협이 있어 6개월간 AI 시스템 개발을 중지해야 한다는 주장을 내놓기도 했다. 사법 시스템, 법률 시스템, 의료 상황 등에서 사용될 수 있는 알고리즘 편견과 자동화된 의사 결정 시스템에 대한 위험을 문제로 지적했다.
최근에는 기술분석 회사인 시시에스 인사이트(CCS Insight)가 생성형 AI 대세론에 의문을 제기하며 2024년에는 생성형 AI의 성장세가 지속되기 어려울 것이라는 예측 보고서를 내놓았다.
생성형 AI의 걸림돌로 부상한 기술적 운영 비용과 규제
생성형 AI 성장을 가로막는 장애물은 크게 기술적 운영 비용과 규제 등이 있다. 우선, 기술적 운영과 유지 비용이 문제다. 생성형 AI는 배포하고 유지하는 데 엄청난 비용이 든다. 특히 생성형 AI 모델을 훈련하기 위해서는 방대한 양의 데이터를 처리해야 하며, 이를 위해선 고성능의 컴퓨팅 자원과 고급 그래픽처리장치(GPU)가 필요하다.
생성형 AI를 구현하는 데 있어 프로젝트의 규모와 복잡성에 따라 사용되는 비용은 수천에서 수백만, 심지어 수십억 달러에 이른다. 세미애널리틱(SemiAnalytics)의 수석 분석가 딜런 패텔은 기업이 챗GPT를 실행하기 위해 필요한 컴퓨팅 성능으로 하루 최대 70만달러(약 9억5000만원)가 들 것이라고 추산했다.
오픈AI의 챗GPT, 구글의 바드, 앤트로픽의 클로드 및 신세시아와 같은 생성형 AI 모델은 엄청난 양의 컴퓨팅 성능을 이용하여 사용자 프롬프트를 처리하고 있다. 이러한 상황에서 오직 소수의 대기업만이 생성형 AI 모델을 실행하기 위해 자체 전문 AI칩을 설계하고 사용할 여유가 있다.
심지어 오픈AI 같은 회사는 앤비디아에 의존하는 반도체 칩 공급 문제를 해결하기 위해 자체 칩을 만들 계획도 모색 중이다.
이보다 더 큰 문제는 규제(regulation)다. 얼마 전까지 생성형 AI가 촉발하는 장밋빛 전망만 쏟아내던 외신도 AI 규제에 대한 우려를 제기하고 있다. 최근 비즈니스 인사이더(Business Insider)는 1년 후 업계에서 가장 규제가 심한 기술 중 하나로 AI를 꼽았다.
이에 따라 선제적으로 AI 관련 규제를 선점함으로써 해당 산업의 경쟁우위를 확보하려는 국가 간 경쟁이 치열해지고 있다. 규제를 선점한다는 의미는 물론 자국 이익에 유리한 방향으로 국제규범을 확립하려고 하는 것이다. AI는 국가 안보, 군사 역량, 글로벌 경제 경쟁력에 직접적인 영향을 미치기 때문이다.
광범위한 위험 기반 규제(EU) vs 분산화된 규제(미국)
AI 규제에 적극적인 국가는 유럽연합(EU)이다. 이미 디지털 시장법(DMA), 디지털서비스법(DSA) 등을 통해 디지털 플랫폼 정책 수립에 앞장섰던 EU는 지난 6월 세계 최초의 법적 구속력이 있는 AI 규제 법안인 유럽연합 AI법안(EU AI Act)을 가결했다. 이 법안은 회원국들과의 막판 협상을 통해 2026년 시행될 예정이다.
이 법안은 AI 시스템을 위험 정도에 따라 4등급으로 분류하고 허용할 수 없는 위험 AI 시스템은 원칙적으로 금지하고 있다. 특히 금융, 사법 제도, 의학 등 위험성이 높은 분야는 투명성, 공정성, 안전성 등의 요건을 갖추도록 엄격하게 규제하고 있다. ‘허용할 수 없는 AI시스템’에는 가장 논란이 많은 개정안 중 하나인 ‘원격 생체 인식 시스템’ 또는 얼굴 인식 기술 등이 포함된다. 또 다른 뜨거운 주제는 다양한 응용 분야에 적용할 수 있는 거대하고 유연한 AI 시스템인 ‘기본 모델(Foundation Model)’의 최근 발전을 다루려는 의회 개정안이 있다.
EU의 입장은 기업 친화적인 정책과는 거리가 있다. 생성형 AI 플랫폼을 개발하는 업체에 책임을 물을 수 있는 법안을 제정 중에 있는 것도 같은 맥락이다. 처벌 규정도 무거워 법안 위반 기업에 최대 3300만 달러(약 446억원) 또는 연간 글로벌 매출의 6%에 해당하는 벌금을 부과하도록 해 글로벌 기술기업의 반발을 사고 있다.
적극적인 규제를 추진하는 또 다른 나라는 중국이다. 세계 최초로 생성형 AI에 대한 법적 실행을 한 중국은 ‘추천 알고리즘에 대한 규정’(2021/2022), ‘합성 콘텐츠에 대한 규제’(2022), ‘생성형 AI서비스 잠정 관리방법’(2023) 등 주로 소셜미디어 및 데이터에서의 AI 사용에 관한 규정 법률을 공표했다.
세계 최고의 AI 국가인 미국은 EU와 달리 분산화된 접근 방식을 추구한다. 따라서 미국은 기본적으로 자국 기술기업들이 AI에 대한 자율적인 자체 보호장치를 마련하도록 하고 있다. 지나친 간섭보다는 혁신 친화적인 정책을 지향하고 있으며, AI 관련 규제 법안 진행 속도도 더딘 편이다. 알고리즘 책임법(Algorithmic Accountability Act)은 몇 차례 시도에도 통과되지 못하고 있고, AI 권리장전(2022년)이나 미국 국립표준기술원(NIST)의 AI 위험 관리 프레임워크(2023년)도 발표되었지만 법적 구속력이 없다.
지금까지 AI 규제에 상대적으로 불간섭주의 접근 방식을 취해왔던 미국 의회는 지난 6월 민주당 원내대표인 척 슈머(Chuck Schumer)가 ‘AI 정책 및 거버넌스를 위한 프레임워크’를 발표하며 연방 차원의 규제에 대해 논의하고 있기는 하다. 하지만 이 또한 기술혁신을 저해하지 않는 선에서 진행되고 있다.
미국은 연방법과 개별 주법 체계로 돼 다면적인 접근방식을 취하고 있다는 것도 특징이다. 미국에서는 AI를 규제하려는 연방 차원의 초기 법안 시도가 마련 중이다. 일부 주에서는 2018년 EU의 일반 데이터 보호 규정에 대한 대응으로 캘리포니아주가 소비자 개인정보보호법(CCPA)을 채택한 것처럼 AI 규제 법안을 별도로 제정하거나 입법을 추진하고 있다.
한때 EU 회원국이었던 영국은 혁신을 저해할 수 있는 강력한 법안을 피하려는 자유방임적 입장이다. 동남아시아국가연합(ASEAN)도 ‘AI 윤리 및 거버넌스 가이드’ 초안을 통해 기업에 국가의 문화적 차이를 고려할 것을 요구하고 EU와 같은 허용할 수 없는 위험 범주를 규정하지는 않는다는 입장이다.
멀고 험한 글로벌 AI 규범에 대한 합의
주요국들이 앞다투어 AI의 윤리적·사회적 영향에 대한 우려를 해소하고, AI 기술의 안전하고 책임 있는 개발과 사용을 촉진하기 위해 AI 규제 법제를 본격적으로 마련하고 있다. 현재는 과거 일반 데이터 보호 규정(GDPR)처럼 EU가 AI 규제의 글로벌 표준을 주도하고 있다.
하지만 생성형 AI를 둘러싼 각국의 움직임을 볼 때 혁신과 경제성장의 균형을 맞추고 소비자를 보호하는 방법에 대한 글로벌 규범에 대한 합의는 쉽지 않아 보인다. 전문가들은 EU의 AI 규정도 회원국 간 이해관계와 AI 개발 속도로 인해 추가 개정작업이 필요할 것으로 보고 있다. 혁신을 저해하지 않고 AI가 초래할지 모를 심각한 위험을 사전에 방지할 수 있는 범국가적 규범 마련이 가능할지 지켜봐야 한다.
심용운 SK경영경제연구소 수석연구원
Copyright © 한경비즈니스. 무단전재 및 재배포 금지.