전 세계가 AI 향한 전방위 규제 나섰다

남상현 기자 2023. 11. 6. 19:01
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

중대한 위험을 내포하고 있다.

진화하는 부작용을 위해 AI의 위험성을 이해하고, 안전과 보안을 담보하기 위한 국제적 연대에 속속 나서고 있다.

수낵 총리는수낙 총리는 "세계 최고 AI 강국들이 AI 위험을 이해하는 것이 시급하다는 점에 동의했다"며 "우리 자녀와 손자의 장기적 미래를 보장하는 획기적 성과"라고 밝혔다.

'고위험 AI'의 개발 및 활용을 사전 고지할 의무를 부과하며 정부 차원의 '신뢰성 전문위원회'를 두어 AI 부작용에 대비하는 내용을 골자로 한다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

영국 블레츨리에서 개최된 'AI 안전 정상회의'에서 각국 주요 참석자들이 기념사진을 찍고 있다.  EPA·연합뉴스
지난 1일 英블레츨리 파크에서 개최된 제1회 AI안전 정상회의에서 리시 수낵 영국 총리가 연설을 하고 있다.

AI는 일상 생활 영역을 포함해

중대한 위험을 내포하고 있다. …

AI 모델의 가장 핵심적 기능으로 인해

의도적이든 의도적이지 않든

심각하고(serious),

파국적인(catastrophic)

피해(harm)를 초래할 가능성이 있다.

2023. 11. 블레츨리 선언 중 일부.

AI 로봇. 게티이미지뱅크

세계가 일제히 인공지능(AI)을 향한 경고에 나섰다. 진화하는 부작용을 위해 AI의 위험성을 이해하고, 안전과 보안을 담보하기 위한 국제적 연대에 속속 나서고 있다.

지난 1일 리시 수낵리시 수낙 영국 총리의 주도로 열린 'AI 안전 정상회의'에서는 '블레츨리 선언'이 발표됐다. AI가 제기하는 기회와 위험의 양면을 이해하며 이를 활용 또는 강력히 제어할 것을 공유한 세계 최초의 합의로 평가된다.

런던에서 북쪽으로 80km가량 떨어진 블레츨리 파크에서 열린 이번 회의는 미국, 중국, 한국, 영국 등 28개국과 구글 딥마인드, 마이크로 소프트, 메타, 엔비디아, 테슬라 등 최고경영자 참석했다. 수낵 총리는수낙 총리는 "세계 최고 AI 강국들이 AI 위험을 이해하는 것이 시급하다는 점에 동의했다"며 "우리 자녀와 손자의 장기적 미래를 보장하는 획기적 성과"라고 밝혔다. 블레츨리 파크는 AI를 처음으로 고안한 앨런 튜링(Alan Turing)이 제 2차 세계대전 당시 독일의 '에니그마 코드'를 해독했던 곳으로 현대 컴퓨팅 발상지 중 하나로 불린다.

선언에 동참한 28개국과 EU는 고도의 능력을 갖춘 AI를 뜻하는 '프런티어 AI'를 상정해 파국적인 피해를 초래할 수도 있다는 점에 동의했다. 또 인간의 통제를 벗어난 AI의 잠재적인 위험을 이해하고, 이를 함께 관리해야 한다는 필요성에 공감을 표했다.

이에 앞서 바이든 AI에 대한 강력한 규제의 내용을 담은 광범위한 행정 .

이번 조치는 사실상 AI를 사용한 모든 서비스는 출시 전 모든 과정에 정부 개입 및 관리 감독을 명시화하고명시화 하고 있다. AI 개발자는 서비스를 시장에 내놓기 전, 안전 테스트 결과 등 중요 기술 정보를 미국 정부와 사전에 공유해야 한다.

조 바이든 미국 대통령이 지난달 30일 백악관 이스트룸에서 AI 규제 행정명령에 서명하고 있다. AP·연합뉴스

특히 바이든 대통령은 '딥페이크(deepfake)' 경험을 언급하며 "사람들의 평판을 훼손하고 가짜뉴스를 퍼트리며 사기를 치기 위해 AI가 만든 오디오와 영상이 사용된다"고 밝혔다. 또 "모든 사람은 특정 오디오나 영상이 AI로 만들어졌다는 것을 알 권리가 있다"며 "AI 가능성을 실현하는 동시에 위험을 피하기 위해 이들 기술들을 관리해야만 한다"고 밝혔다. 이번 행정명령에 따라 AI 생성 자료에 워터마크 등의 레벨을 붙이도록 표준을 개발할 예정이다.

대전일보DB

인공지능 법안과 가이드라인은 최근까지 꾸준히 제정돼 왔다.

EU는 2021년도 AI 위험 수준을 4가지로 구분해 이에 따른 규제를 부과하고 있다. 또 미국은 AI 자율 규제를 핵심으로 하는 알고리즘 책임 추진했고 인공지능과 관련한 합리적 규제 수준에 대한 대중과 기업의 인식을 조사했다. 또 영국에서는 올 3월 AI 분야별 합리적 규제를 추진하기 위해 인공지능 규제 백서를 작성했다. 한국에서는 지난 2월 '인공지능 기본법안'이 국회 과방위 법안심사 소위에서 가결돼 논의가 이뤄지고 있다. '고위험 AI'의 개발 및 활용을 사전 고지할 의무를 부과하며 정부 차원의 '신뢰성 전문위원회'를 두어 AI 부작용에 대비하는 내용을 골자로 한다. 우선 허용, 사후 규제를 원칙으로 하는 AI 진흥에 방점을 두고 있어서 출시 전 주요 AI 기술 정보를 국가가 통제하는 미국의 행정 명령보다는 그 수위가 훨씬 낮다.

AI 키워드

▶빅 블러 (Big Blur)

AI가 법률, 의료, 금융 등 산업의 경계를 희미하게 하는 것처럼 기술, 산업의 빠른 변화로 인해 기존에 존재하던 것들의 경계가 모호하게 되는 현상.

▶LLM (Large Language Model·거대언어모델)

챗GPT와 같이 방대한 양의 글을 학습하는 AI모델

▶AGI (Artificial General Intelligence·범용인공지능)

특정 문제뿐 아니라 주어진 모든 상황에서 생각과 학습을 하고 창작할 수 있는 능력을 컴퓨터로 구현하는 기술

▶프론티어 AI (Frontier AI)

인류에 심각한 위험을 초래할 수 있을 정도로 고도의 기능을 탑재한 AI모델

▶할루시네이션 (Hallucination·환각현상)

AI 언어 모델이 거짓을 진짜인 것처럼 답하는 현상

Copyright © 대전일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?