[기고]더 늦어지면 안 될 AI 입법

2024. 7. 9. 16:01
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

2005년 가트너 그룹은 '하이프 곡선(Hype Curve)'이라는 그림을 발표한다.

2023년 4월, AI 분야 세계 석학과 기업가들이 참여해 발표한 인류미래연구소(FLI) 공개 서신에서는 '최소한 6개월간 첨단 AI 개발을 중단하고 AI 거버넌스를 논의할 것'을 제안했다.

또 2023년 미국 국립 표준기술 연구소(NIST)는 AI 위험 관리 프레임워크 1.0을 발표하면서 그 안에 8가지 위험성을 크게 명시하고 AI를 통제하기 위한 전략이 필요함을 역설했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

김명주 서울여대 정보보호학부 교수(국제인공지능윤리협회 회장)

2005년 가트너 그룹은 '하이프 곡선(Hype Curve)'이라는 그림을 발표한다. 신기술이 우리 사회에 어떻게 정착하고 있는지 현황을 보여주는 간단한 그래프다. 인공지능(AI) 역사는 3번째 하이프 커브를 맞이하고 있다. 그것도 출현기를 지나 절정기를 향해 가고 있다. 이제 관심사는 '이 절정기인 여름이 얼마나 지속될 것인가' '세 번째 겨울은 과연 언제 올 것인가'이다.

2023년 4월, AI 분야 세계 석학과 기업가들이 참여해 발표한 인류미래연구소(FLI) 공개 서신에서는 '최소한 6개월간 첨단 AI 개발을 중단하고 AI 거버넌스를 논의할 것'을 제안했다. 이 공개 서신 마지막 문장은 이렇게 끝난다. “모처럼 맞이한 AI의 세 번째 여름을 아주 길게 누리기 위해 이런 제안을 한다.” AI와 인류가 공존하기 위해서는 AI에 있는 잠재적 위험을 들추어내고 이를 제어할 수 있는 논의가 처음부터 필요하다는 뜻이다. 그렇지 않으면 AI는 그 유용성에도 사람들의 신뢰를 얻지 못해서 사장될 수 있다고 우려한다.

AI 유용성은 모두가 공감한다. 그런데 그 뒷면에 있는 AI의 위험성에 대한 공감은 아직은 그에 훨씬 미치지 못한다. 세계경제포럼(WEF)은 1490명의 글로벌 리더들을 상대로 설문을 진행한 결과를 2024년 글로벌 위험 보고서로 발표했다. 글로벌 위험 1위는 '극단적 기후'(66%)이었고, 2위에 'AI가 생성하는 허위 정보'(53%)가 선정됐다. 또 2023년 미국 국립 표준기술 연구소(NIST)는 AI 위험 관리 프레임워크 1.0을 발표하면서 그 안에 8가지 위험성을 크게 명시하고 AI를 통제하기 위한 전략이 필요함을 역설했다.

세계 각국은 AI 산업의 '진흥'과 '규제'라는 양날의 칼을 뒤섞어 가면서 AI 여름기를 주도하려고 노력 중이다. 유럽연합(EU)은 올해 3월 AI법을 의회에서 통과시킨 후, 5월 29일 유럽연합 집행위원회(EC) 안에 'AI사무국'을 설치해서 본격적 AI법 운영과 지원에 돌입했다. EU의 AI사무국은 5개 부서로 구성되는데, AI 혁신 패키지를 통해 EU의 AI 생태계를 진흥함과 동시에 AI 안전성을 위한 규제 준수도 담당한다. 지난 해 10월 조 바이든 미국 대통령의 'AI행정명령'(일종의 AI법)이 발동된 이후, AI 인력 확보를 위한 노력, AI 산업 진흥을 위한 구체적 행정 실무에 들어갔다. AI 안전연구소(AISI)를 NIST 산하에 설립해, AI 위험에 대비한 체계적, 과학적 대응에 착수했다. 4월 중순 미국 상무부 장관은 AI 안전성 연구소에 다양한 CO(Chief Officer)들을 대폭 추가 임명해 구체적 역할을 주문했다. 영국도 2023년 11월 AI 안전연구소를 발족해 5월에는 AI 안전성에 관한 과학 보고서도 발행했다.

글로벌 흐름을 지켜보면 마음 한 켠이 불편해진다. 글로벌 경쟁력을 갖춘 AI 관련 국내 산업 생태계를 구축하고 필요한 인력을 확보하기 위한 중장기적 전략이 우리에게 필요하다. AI 위험성을 선제적으로 통제하기 위한 기술적, 제도적 조치도 마련돼야 한다. 국가적 차원에서의 진흥과 규제를 진두지휘할 조직도 필요하며 AI의 잠재적 위험을 통제할 수 있는 AI 안전연구소 설립도 시급하다. AI 기본법은 지난 21대 국회에서 2년 넘게 체류하다 미완으로 끝났다. 이번 22대 국회에서는 정치적 셈법을 피하고 과학적이며 현장 중심의 구체적 논의를 거쳐 진흥과 규제의 적절한 타협점을 빠르게 담아내야 한다. 오늘도 AI 정책·기술 보고서들이 국가 차원에서 여기저기 쏟아져 나오는 것을 보면서 부러운 마음이 가득하다.

김명주 서울여대 정보보호학부 교수·국제인공지능윤리협회 회장 mjkim@swu.ac.kr

Copyright © 전자신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?