[테크&포커스] "악용 막는게 우선" vs "열어야 투명"… AI 규제·기술개방 `격론`
각국 산업·정치계, 대응책 논의
규제론측 "오용·AGI 대비해야"
개방론측 "일부기업 독점 방지"
#1. "인터넷에 개방된 기술로 천연두 변종을 만들거나 핵 코드에 접근하거나 중요 인프라를 공격하도록 둬서는 안된다. 기술이 사이버 범죄나 사기를 노리는 이들의 손에 들어가는 것도 막아야 한다." (버락 오바마 전 미 대통령)
#2. "일부 기업이 자신들의 이익을 위해 AI(인공지능)에 대한 공포를 조장하고 대규모 로비를 벌였다. 이들의 얘기는 AI에 대한 통제권을 소수의 손에 맡기자는 주장과 다름없다." (얀 르쿤 메타 수석AI과학자 겸 미 뉴욕대 교수)
산업계와 정치계를 막론하고 AI의 위험성과 규제 수위를 둘러싼 격론이 벌어지고 있다. 세계 각국 정부가 AI 위험성 대응에 공조하고 AI 규제에 나서겠다고 선언한 가운데 나타나는 현상이다. AI의 급속한 기술진화 속도를 고려했을 때 더 이상 규제를 미룰 수 없다는 시각과, 규제가 일부 앞선 기업의 지위를 굳힐 뿐이라는 주장이 맞서고 있다. 특히 AI 기술의 위험성에 대응하려면 기술을 개방해서 투명성을 확보하고 일부 기업의 독점을 막아야 한다는 '개방 논리'와, 악의적인 의도로 AI를 쓰는 이들에게 기술이 흘러가지 않도록 규제해야 한다는 '폐쇄 논리'가 맞붙고 있다.
◇"AI 위험론 과장" vs "AGI 오기 전 미리 대비해야"
앤드류 응 스탠퍼드대 교수, 요수아 벤지오 몬트리올대 교수, 제프리 힌튼 토론토대 교수와 함께 이른바 'AI 4대 천왕'으로 불리는 세계적인 석학인 얀 르쿤 메타 수석AI과학자 겸 미 뉴욕대 교수가 지목한 기업은 구글 딥마인드다. 2016년 '알파고 충격'으로 유명세를 탄 회사다.
르쿤은 "딥마인드가 오픈AI, 앤트로픽 등과 함께 소수의 빅테크만 AI를 통제할 수 있도록 대규모 로비를 벌이고 있다"고 주장했다. 르쿤이 몸담은 메타는 AI 분야 상대적 후발주자면서, 폐쇄모델을 지향하는 다른 기업들과 달리 기술을 외부에 개방하는 오픈소스 모델을 추구한다는 점에서 차이가 있다. 딥마인드, 오픈AI 등이 AI의 위험성을 내세우며 규제론을 주장하는 것과 달리, 메타는 AI의 위험성은 과장된 것이며 오히려 일부 기업이 폐쇄적으로 기술을 독점하는 구조가 더 큰 리스크라고 주장한다.
AI 분야 세계적 석학이면서 르쿤과 함께 AI 비규제론자이자 오픈소스 AI를 지향하는 응 교수도 르쿤의 주장에 힘을 보탰다. 응 교수는 소셜미디어 X(옛 트위터)에 "AI의 미래에 대해 가장 두려운 것은 인간 멸종 같은 과장된 위험을 내세워 기술 로비스트들이 오픈소스를 억압하고 혁신을 짓밟는 숨막히는 제도를 만드는 것"이라고 썼다. 응과 르쿤은 강력한 힘을 가진 AI 기술을 소수의 빅테크가 폐쇄적으로 소유해선 안되고, 기술 개방을 통해 투명성과 기술적 완성도를 높여야 한다는 주장을 이어오고 있다.
이들의 공격에 대해 데미스 하사비스 딥마인드 사장도 반박에 나섰다. 하사비스는 최근 CNBC와의 인터뷰에서 "AI에 접근하는 최선의 방식으로 '규제포획(regulatory capture)'을 얻으려 한 적이 없다"고 주장했다. 규제포획은 규제 기관이 규제 대상인 기업이나 기관의 이해관계에 우선하는 결정을 해서 발생하는 규제실패 현상을 말한다. 하사비스는 "초지능적인 AI를 어떻게 규제할 것인가에 대한 논의를 지금 시작하는 것이 중요하다. 너무 오래 방치하면 그 결과가 끔찍할 수 있기 때문"이라고 강조했다. 그러면서 "가짜뉴스, 딥페이크, 편견 , 불공정성 등의 문제와 함께, 악의적인 이들에 의한 AI의 오용, 보다 장기적으로는 AGI(일반AI)의 위험에 대해 생각해야 한다"고 주장했다. AGI란 인간처럼 스스로 생각하고 행동할 수 있는 AI를 가리킨다.
하사비스는 인간을 능가할 만큼 강력한 형태의 AI가 등장하기 전에 부작용을 막는 장치에 대해 논의해야 한다는 주장을 이어왔다.
◇"오픈소스AI 장려해야" vs "무분별한 개방 통한 악용 막아야"
특히 AI 규제 논의는 오픈소스 AI 찬반 논란으로 확산되고 있다. 이 가운데 AI 안전성 정상회의를 개최한 영국 부총리가 오픈소스 AI를 공개적으로 지지한다고 밝혀 논의가 더 뜨거워지고 있다.
올리버 다우든 영국 부총리는 AI 안전성 정상회의 기간에 언론과 가진 인터뷰에서 "오픈소스 AI는 엄청난 잠재력이 있다"면서 "스타트업들이 오픈소스 기술을 바탕으로 애플리케이션을 개발해 몇달만에 수십억달러 이상 가치의 기업으로 성장하고 있다. 이는 개발도상국의 입장에서도 마찬가지로, 오픈소스 AI에 대한 규제는 높은 기준이 필요하다"고 말했다. 이는 오픈소스 AI가 악의적인 이들에 의해 악용될 우려를 지적하는 오픈AI나 앤트로픽 같은 기업의 입장과 차이가 있다. 이 발표에 대해 앤드루 응 교수는 즉각 환영한다는 글을 X에 올렸다. 응 교수는 "좋은 오픈소스 코드를 출시하는 것은 세상에 멋진 선물을 주는 것이다. 오픈소스를 지지하는 영국 부총리의 성명을 기쁘게 생각한다"고 밝혔다.
◇'AI 4대 천왕'도 규제론자 vs 비규제론자 양분
이에 대해 또 한명의 AI 대부이면서 AI 규제론자로 돌아선 제프리 힌튼 토론토대 교수는 응 교수와 르쿤 교수가 놓친 부분이 있다고 지적했다. 힌튼 교수는 올해 5월 AI의 위험성과 규제를 주장하며 구글을 떠난 바 있다. 힌튼 교수는 X에서 "응은 AI로 인한 인류의 멸종은 빅테크의 음모론이라고 주장하는데, 그 주장이 맞지 않다는 증거는 내가 위협에 대해 자유롭게 말하기 위해 구글을 떠났다는 점이다. 응과 르쿤은 빅테크가 규제를 원하는 주된 이유를 놓친 것 같다. 수년전 한 자율주행 기업의 창업자가 안전 규정을 준수하면 사고에 대한 법적 책임이 줄어들기 때문에 안전 규정을 두는 것을 선호한다고 말한 점을 기억할 필요가 있다"고 밝혔다.
힌튼 교수는 "기업들은 1년 6개월 이내에 현재보다 100배 뛰어난 연산능력을 갖춘 AI모델을 훈련시킬 계획인데, 이 모델이 얼마나 강력할지는 아무도 모른다. 그리고 기본적으로 이런 모델로 무엇을 할 수 있는지에 대한 규제가 없는 상황"이라고 짚었다. 그러면서 응 교수나 르쿤 교수의 주장대로라면 "핵무기도 더 안전하게 만들기 위해 오픈소스로 공개하는 게 맞는 것 아닌가"라고 주장했다.
그러자 르쿤 교수가 다시 반박했다. 그는 1년 6개월만에 100매 연산 능력을 달성한다는 주장은 받아들이기 힘들다면서 "미래 AI 시스템이 현재의 자동회귀 LLM(대규모언어모델)과 같은 구조로 구축된다면 지식이 늘어도 여전히 멍청하고 환각을 볼 것"이라며 "이성을 갖지 못하고 새로운 것을 발명하지 못하며 목표를 달성하기 위한 행동을 계획할 수 없다는 의미"라고 밝혔다. 그는 "미래의 AI시스템은 세계를 이해하고 추론하고 계획할 수 있는 다른 아키텍처를 사용하고, 일련의 목표와 가드레일을 충족해야 한다. 이러한 목표 지향적 아키텍처는 안전할 것이며 우리의 통제 하에 있을 것"이라고 강조했다.
한편 샘 알트만 오픈AI CEO는 X를 통해 "정부가 AI를 규제하면서 소규모 기업과 연구팀의 혁신을 늦추지 않는 것이 중요하다. 프런티어 시스템에 대한 규제에는 찬성하되 규제포획에는 반대한다"는 입장을 내놨다. '프런티어AI'란 현재 생성형AI 서비스의 기반모델(FM)인 최신 초거대AI와 동등하거나 그 이상의 기능을 갖춘 고성능 범용 AI모델을 뜻한다. 잘못 쓰일 경우 재앙적인 위험을 초래할 수 있는 수준의 기술이다.
◇"AI 멈출 물리적 버튼 만들자"
리시 수낵 영국 총리는 AI 안전성 정상회의 기간에 일론 머스크 테슬라 CEO(최고경영자)와 가진 대담에서 비상시 AI를 멈출 수 있는 물리적 스위치가 필요하다는 데 의견을 같이 했다. 두 사람은 영화 '터미네이터' 시리즈 등 SF(공상과학) 영화에서 로봇이 통제불능 상태가 되는 것을 막기 위해 물리적 '오프 스위치'를 두듯이 AI에도 같은 장치가 필요하다는 데 뜻을 모았다. 수낵 총리는 "기본적으로 같은 줄거리를 가진 이들 영화는 모두 사람이 전원을 끄는 것으로 끝난다"고 했다. 머스크도 "어느 날 로봇의 SW(소프트웨어) 업데이트가 이뤄진 후 친절하지 않아지면 어떻게 되겠나"며 "물리적으로 끄는 스위치가 중요하다"고 덧붙였다.
머스크는 "AI는 역사상 가장 파괴적인 힘"이라며 "AI가 있는 미래는 '보편적 기본소득'이 아니라 '보편적 고소득'이 있는 풍요로운 시대가 될 것"이라고 전망했다. 그러면서 AI 규제를 위한 제3자 심판기구를 설립하자고 주장했다. 그는 "AI 기업이 무엇을 하고 있는지 관찰하고 우려 사항이 있으면 최소한의 경고를 할 수 있는 제3의 심판자를 구축해야 한다"면서 "규제는 귀찮은 일이지만 심판이 있는 게 좋다는 것을 배웠다"고 말했다.
◇AI 규제에 전·현직 대통령 머리 맞댄 미국
미국은 조 바이든 대통령이 지난달 30일 AI가 핵무기나 생화학무기 등에 사용되는 것을 차단하기 위해 AI 안전성 평가를 의무화하는 행정명령에 서명한 가운데 버락 오바마 전 대통령이 바이든 행정부의 AI 규제 막후 브레인 역할을 하고 있다. 오바마 전 대통령은 지난 5개월간 백악관의 AI 대응전략을 조언한 것으로 알려졌다.
두 사람의 보좌진에 따르면 바이든 대통령이 주요 정책을 구상하기 위해 오바마 전 대통령의 조언을 구한 것은 이번이 처음이다. 오바마 전 대통령은 지난 수년간 AI에 관심을 갖고 식견을 쌓아온 것으로 전해졌다. 바이든과 오바마가 함께 머리를 맞댄 것은 기술이 너무 빠르게 발전하는 만큼 대응도 훨씬 기민하게 이뤄져야 한다는 판단에서 비롯됐다. 외신에 따르면 두 사람은 지난 6월 전화통화를 하고 관련 문제를 논의했다. 또 리스크는 제한하면서 기술은 극대화한다는 목표에 뜻을 같이 했다. 그 후 바이든 대통령은 오바마 전 대통령에게 혁신을 장려하면서 AI의 위험성을 관리하는 정책 개발 과정에 직접 참여해줄 것을 요청했다.
지난달 30일 AI 규제 행정명령에 서명하면서 바이든 대통령은 AI를 "우리 시대의 가장 중대한 기술"이라고 칭하면서 AI를 이용한 사이버 공격과 AI로 제조된 생물무기가 수백만 명의 생명을 위험에 빠뜨릴 수 있다는 점을 짚었다. 그러나 기술이 적절하게 사용되면 신약 개발과 암 극복에 엄청난 도움이 될 수 있다고 말했다.
오바마 전 대통령은 온라인 공간에서 AI에 대한 적절한 규제 필요성을 설파하고 있다. 그는 3일(현지시간) 온라인 사이트 '미디엄'에 자신이 AI에 대한 관점을 형성하는 데 도움을 받은 책, 기사, 팟캐스트를 공유하면서 '제로 트러스트 AI 거버넌스'를 주요 키워드에 포함시켰다. 제로 트러스트 AI 거버넌스는 'AI나우 인스티튜트' 등 시민사회 단체가 제시한 프레임워크로, AI시스템의 전체 주기에 걸쳐 시스템이 해롭지 않다는 사실을 기업이 입증하도록 하는 것이다.
오바마 전 대통령은 바이든 행정부가 AI 행정명령을 발표한 후 내놓은 성명에서 "소셜미디어가 부상했을 때 대부분의 결정은 거의 감독 없이 소수의 사람들에 의해 이뤄졌다. 그들은 새롭고 흥미로운 방식으로 우리를 연결하는 데 도움이 되는 플랫폼을 만들었지만, 그것이 미칠 수 있는 해악은 예측하지 못했다. 같은 실수를 반복해서는 안 된다"고 강조했다. 안경애기자 naturean@dt.co.kr
Copyright © 디지털타임스. 무단전재 및 재배포 금지.
- 9.11·체르노빌 내다본 `예언가`의 `푸틴` 내년 운명 예측은?
- 20대 편의점 알바女 무자비하게 맞았다…이유는 "머리가 짧아서"
- 일본 날씨도 `미쳤다`…도쿄 `11월의 여름날`, 전날 26.3도까지 올라
- "인요한에 `당신민족 언어` 쓴 이준석, 혐오발언 유엔 제소감" 3지대 신당서도 비판
- 병원치료중 도주 피의자에 현상금 500만원
- [트럼프 2기 시동]트럼프 파격 인사… 뉴스앵커 국방장관, 머스크 정부효율위 수장
- 거세지는 ‘얼죽신’ 돌풍… 서울 신축 품귀현상 심화
- 흘러내리는 은행 예·적금 금리… `리딩뱅크`도 가세
- 미국서 자리 굳힌 SK바이오팜, `뇌전증약` 아시아 공략 채비 마쳤다
- 한화, 군함 앞세워 세계 최대 `美 방산시장` 확장