발전은 빠른데 법·제도는 `제자리`… "AI 기본법 통과돼야"

김나인 2024. 5. 16. 15:57
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

IAAE, 2024 ASC 콘퍼런스 개최
저작권 문제 등 조항 개정 논의
엄열 과기정통부 정보통신정책관이 16일 서울 역삼동에서 열린 '2024 ASC 컨퍼런스'에서 초거대 AI 활용 방안과 안정성에 대해 발표하고 있다. 김나인 기자
이화란 네이버 퓨처AI센터 리드가 16일 서울 역삼동에서 열린 '2024 ASC 컨퍼런스'에서 발표하고 있다. 김나인 기자
이화란 네이버 퓨처AI센터 리드가 16일 서울 역삼동에서 열린 '2024 ASC 컨퍼런스'에서 발표하고 있다. 김나인 기자

오픈AI의 'GPT-4o'에 이어 구글 일반AI(AGI) '아스트라'가 발표되는 등 AI 경쟁이 날로 치열해지는 상황에서 지속 가능한 AI 기술 발전이 이뤄져야 한다는 목소리가 나왔다. 미국, 유럽 등 각국에서 할루시네이션(환각) 현상과 같은 AI 한계와 가짜뉴스 활용 등 악용을 제어할 수 있는 제도들이 속속 등장하고 있다. 내주 우리나라에서 'AI 서울정상회의'가 개최되는 가운데 'AI 기본법' 등 관련 논의와 제도 마련이 이뤄져야 한다는 지적이 나왔다.

16일 국제인공지능윤리협회(IAAE)는 서울 역삼동 마루 180에서 기업을 위한 AI 윤리와 AI 안전 방향성을 주제로 제1회 '2024 ASC 콘퍼런스'를 열었다. 생성형 AI 기술 발전과 함께 환각을 비롯해 딥페이크, 가짜뉴스, 저작권 침해 등 AI를 활용한 오류, 악용 사례가 발생하는 상황에서 안전한 AI 기술 발전과 사용 문화 확산을 위해 마련됐다.

지난 2022년 챗GPT 등장 이후 글로벌 생성형 AI 기술 발전이 급격하게 이뤄지면서 유럽, 미국 등을 중심으로 AI 안전성 확보를 위한 규제 움직임도 빨라지고 있다. 유럽연합(EU)의 입법기관인 유럽의회는 지난 3월 세계에서 처음으로 포괄적 규제법을 마련했으며, 미국에서는 '안전하고 신뢰할 수 있는 AI에 대한 행정명령'을 통해 미국 기업들에 AI에 대한 안전 테스트 결과, 주요 정보를 정부와 공유하도록 했다. 중국에서도 지난해 'AI 윤리 거버넌스' 표준화 지침을 마련했다.

이 자리에서 전창배 IAAE 이사장은 "그간 'AI 신뢰성'이 화두였지만 올해 들어 'AI 안정성(세이프티)'로 개념이 구체화했고, AI 윤리 법제도 주도권 확보를 위한 경쟁도 전세계적으로 치열해지고 있다"며 "우리나라에서 AI 정상회의가 열리는 만큼 국내에서도 AI 안전성 관련 법, 제도가 선제적으로 마련돼야 한다"고 말했다.

'AI 기본법' 등이 국회에서 조속히 통과돼야 한다는 목소리도 나왔다. AI 산업 육성·안전성 확보 방안 등이 담긴 AI 기본법은 현재 국회에 계류돼 있다. 'AI 일상화'에서 'AI 공존 시대'로 진화하는 상황에서 AI 강국 기틀을 마련하기 위해서는 관련 제도가 선제적으로 마련돼야 한다는 지적이 나온다. AI 기본법은 EU의 법안과 달리 산업 초기 단계인 것을 고려해 '우선허용 사후규제' 원칙이 담겼다. 일각에서는 법안에 신종 범죄 등을 처벌할 수 있는 규정이 담겨야 한다는 목소리도 있다.

엄열 과기정통부 정보통신정책관은 "AI 기본법에서 출발해 여러 규제나 타법·기존 제도 충돌, 저작권 문제, 개인정보 침해, 이용자보호 등은 논의를 통해 관련법의 해당 조항을 개정하거나 추가하는 부분으로 해결할 것"이라며 "AI 발전과 신뢰성 조성 기반을 위해 법과 제도, 윤리적 체계가 조속히 완료돼야 한다. 국회에서 AI 기본법의 빠른 통과를 기대한다"고 말했다.

이번에도 국회 문턱을 넘지 못하면 새 법안 형태로 원점에서 다시 논의해야 할 것으로 보인다. 그는 "AI 기본법에는 현재 처벌이나 형법 조항은 없다"며 "AI 산업이 초기인 것을 감안할 때 과도한 규제는 발목을 잡을 수 있다"고 덧붙였다.

이와 함께 윤창희 NIA AI정책연구팀장은 국내외 초거대 AI 기술과 안정성 동향 분석에 기반한 정부의 초거대 AI 구축 전략을 공개했다.

AI 안전성 확보를 위한 기업들의 사례도 제시됐다. 거대언어모델(LLM) '하이퍼클로바X'를 보유하고 있는 네이버는 안전성 강화를 위해 2021년부터 '레드팀'을 운영하고 지난 1월 AI 안전성을 연구하는 '퓨처 AI센터'를 신설했다.

이화란 네이버 퓨처AI센터 리드는 "언어모델은 부정적 의견이나 문화, 사회, 국가별로 다른 정보들이 고스란히 LLM에 녹아있어 사회적 편견과 고정관념을 가지고 있다"며 "하이퍼클로바X의 신뢰성 확보를 위해 안전성, 정확성 측면에서 카테고리를 고려하고 정확한 답변 데이터 구축에 나서고 있다"고 말했다. 특히 생성형 AI 레드팀 챌린지에서는 잘못된 정보를 제공하는 환각이 42%로 높은 비중을 차지해 아직 취약한 것으로 알려졌다. 다만, 민감한 카테고리의 경우 정의를 하더라도 사회가 이를 어떻게 수용하느냐에 따라 평가가 달라질 수 있다고 덧붙였다.

신뢰성 있는 AI를 위해 고품질 데이터 생성에도 주력하고 있다. 박찬준 업스테이지 수석 연구원은 "LLM '솔라'를 만드는 데 가장 중요한 키워드는 책임감"이라며 "정제된 고품질의 데이터 확보를 위한 연구에도 나서고 있다"고 말했다.

이외에도 AI 리스크 관리 표준화 필요성, 공정하고 신뢰할 수 있는 AI 채용 기술력과 신뢰성 인증, 윤리점검표 도입 사례 등이 제시됐다.

김나인기자 silkni@dt.co.kr

Copyright © 디지털타임스. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?