국제 AI 보안 표준 발표..구글-오픈AI-알리바바 동참

유효정 중국 전문기자 2024. 4. 18. 08:13
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

미국과 중국 기업 등이 참여해 생성형 인공지능(AI) 보안 표준을 내놨다.

17일 스위스 제네바에서 열린 제27차 유엔과학기술회의에서 세계디지털기술아카데미(WDTA)는 '생성형 AI 애플리케이션 보안 테스트 표준'과 '대규모 언어 모델 보안 테스트 방법' 등 두 가지 국제 표준을 발표했다.

표준은 생성형 AI 애플리케이션(특히 대규모 언어 모델을 사용해 구축한 응용 프로그램)의 보안을 테스트하고 검증하기 위한 프레임워크를 제공한다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

美中 수십 개 기업 전문가 참여

(지디넷코리아=유효정 중국 전문기자)미국과 중국 기업 등이 참여해 생성형 인공지능(AI) 보안 표준을 내놨다.

17일 스위스 제네바에서 열린 제27차 유엔과학기술회의에서 세계디지털기술아카데미(WDTA)는 '생성형 AI 애플리케이션 보안 테스트 표준'과 '대규모 언어 모델 보안 테스트 방법' 등 두 가지 국제 표준을 발표했다.

이 두 가지 표준은 초거대 모델 및 생성형 AI 애플리케이션 방면의 보안 테스트 표준으로서, 글로벌 AI 보안 평가 및 테스트의 새로운 기준이 될 것이라고 소개됐다.

두 표준은 오픈AI, 구글, 메타, 마이크로소프트, 엔비디아, 아마존, 알리바바그룹의 앤트그룹, 아이플라이텍, 바이두, 텐센트, 오포, 그리고 버클리대 등 수십 개 기업 및 기관의 전문가가 공동으로 만들었다. 이중 대규모 언어 모델 보안 테슽 방법은, 앤트그룹이 주도해 제정했다.

WDTA가 발표한 표준 제정 참여 기업 (사진=WDTA)

표준은 생성형 AI 애플리케이션(특히 대규모 언어 모델을 사용해 구축한 응용 프로그램)의 보안을 테스트하고 검증하기 위한 프레임워크를 제공한다. 또 ▲기본 모델 선택 ▲임베디드 및 백터 데이터베이스 ▲RAG 또는 검색 증강 생성 ▲AI 애플리케이션 런타임 보안 등 방면에서 AI 애플리케이션 아키텍처의 각 단계에 대한 테스트 및 검증 범위를 정의한다.

대규모 언어 모델 보안 테스트 방법의 경우 대규모 모델 자체의 보안 평가를 위한 포괄적이고 실용적인 계획을 제공하며 대규모 언어 모델의 보안 위험 분류, 분류 방법과 테스트 방법 등을 제안한다.

WDTA에 따르면 이 방법은 대규모 언어 모델의 복잡성을 해결하면서 적대적 공격을 견딜 수 있는 능력을 포괄적으로 테스트하고 개발자와 조직이 잠재적 취약점을 식별해 막을 수 있게 한다. 궁극적으로 대규모 언어 모델을 사용한 AI 시스템의 성능을 향상시킬 수 있다..

유효정 중국 전문기자(hjyoo@zdnet.co.kr)

Copyright © 지디넷코리아. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?