[홍성욱의 과학 오디세이] [45] AI의 위험을 규제하려는 법
1990년대 초반에 인터넷이 대중에게 공개된 뒤에 네트(NET)의 세계에서는 저작권법이 통하지 않았고, 다른 규제도 별로 없었으며, 언론의 자유는 무제한 보장되는 듯했다. 그때 인터넷법을 연구하던 로런스 레시그(Lawrence Lessig)가 ‘코드’라는 책을 출간했다. 레시그에 의하면, 현실 세계 사람의 행동은 법, 규범, 시장에 의해서 영향을 받지만, 인터넷에서는 여기에 ‘코드’(code)가 더해졌다. 특정 단어나 이미지를 필터링하는 코드가 심어지면 사용자는 그런 단어나 이미지가 있는 콘텐츠에 아예 접근할 수 없었다. 컴퓨터 코드는 곧 법이었다.
지난주에 EU가 통과시킨 강력한 인공지능법에서는 안면 인식 AI나 생체 정보 AI는 허용할 수 없는 위험으로 간주하고 아예 금하는 조항을 포함하고 있다. 이어서 교통시스템 AI, 면접 AI, 대출 심사 AI를 매우 위험한 인공지능으로 규정했는데, 이 범주에 최근 급속하게 발전하는 챗GPT 같은 생성형 인공지능 역시 포함시켰다. 법안에 의하면 이런 범주의 인공지능은 출시 전에 위험을 완화하는 조치를 해야 하고, 활동 기록 등을 보관하고 AI에 대한 인간의 감독 방안을 마련해야 한다.
생성형 인공지능의 선두를 달리는 오픈AI, 구글, 페이스북 같은 회사들은 일단 미국의 규제안을 지켜보고 있다. EU 내에서도 프랑스와 독일처럼 자국의 생성형 AI 산업이 경쟁력을 가지는 나라는 이 법안에 선뜻 찬성하고 있지 않다. 일부 분석가는 법안이 시행되면 감독을 철저하게 할 수 있는 대기업에만 유리한 환경이 될 것이라고 비판한다. 반면 생성형 AI의 위험을 경고하는 요슈아 벤지오 같은 컴퓨터 과학자는 EU 법안을 환영하면서, 여기서 생성형 AI를 제외한다면 가장 위험한 AI를 규제에서 면제하는 셈이라고 경고하고 있다.
지금까지 생성형 AI의 세상에서 코드(알고리즘)가 곧 법이었다. 인터넷상에 있는 빅데이터를 무제한 학습하는 머신러닝 알고리즘을 누구도 건드릴 수 없었다. 이제 EU의 첫 규제가 입안되었다. 코드라는 법과 이를 규제하려는 법이 무겁게 충돌하려는 것이다.
Copyright © 조선일보. 무단전재 및 재배포 금지.