국제 AI 보안 표준 발표..구글-오픈AI-알리바바 동참
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
미국과 중국 기업 등이 참여해 생성형 인공지능(AI) 보안 표준을 내놨다.
17일 스위스 제네바에서 열린 제27차 유엔과학기술회의에서 세계디지털기술아카데미(WDTA)는 '생성형 AI 애플리케이션 보안 테스트 표준'과 '대규모 언어 모델 보안 테스트 방법' 등 두 가지 국제 표준을 발표했다.
표준은 생성형 AI 애플리케이션(특히 대규모 언어 모델을 사용해 구축한 응용 프로그램)의 보안을 테스트하고 검증하기 위한 프레임워크를 제공한다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
(지디넷코리아=유효정 중국 전문기자)미국과 중국 기업 등이 참여해 생성형 인공지능(AI) 보안 표준을 내놨다.
17일 스위스 제네바에서 열린 제27차 유엔과학기술회의에서 세계디지털기술아카데미(WDTA)는 '생성형 AI 애플리케이션 보안 테스트 표준'과 '대규모 언어 모델 보안 테스트 방법' 등 두 가지 국제 표준을 발표했다.
이 두 가지 표준은 초거대 모델 및 생성형 AI 애플리케이션 방면의 보안 테스트 표준으로서, 글로벌 AI 보안 평가 및 테스트의 새로운 기준이 될 것이라고 소개됐다.
두 표준은 오픈AI, 구글, 메타, 마이크로소프트, 엔비디아, 아마존, 알리바바그룹의 앤트그룹, 아이플라이텍, 바이두, 텐센트, 오포, 그리고 버클리대 등 수십 개 기업 및 기관의 전문가가 공동으로 만들었다. 이중 대규모 언어 모델 보안 테슽 방법은, 앤트그룹이 주도해 제정했다.
표준은 생성형 AI 애플리케이션(특히 대규모 언어 모델을 사용해 구축한 응용 프로그램)의 보안을 테스트하고 검증하기 위한 프레임워크를 제공한다. 또 ▲기본 모델 선택 ▲임베디드 및 백터 데이터베이스 ▲RAG 또는 검색 증강 생성 ▲AI 애플리케이션 런타임 보안 등 방면에서 AI 애플리케이션 아키텍처의 각 단계에 대한 테스트 및 검증 범위를 정의한다.
대규모 언어 모델 보안 테스트 방법의 경우 대규모 모델 자체의 보안 평가를 위한 포괄적이고 실용적인 계획을 제공하며 대규모 언어 모델의 보안 위험 분류, 분류 방법과 테스트 방법 등을 제안한다.
WDTA에 따르면 이 방법은 대규모 언어 모델의 복잡성을 해결하면서 적대적 공격을 견딜 수 있는 능력을 포괄적으로 테스트하고 개발자와 조직이 잠재적 취약점을 식별해 막을 수 있게 한다. 궁극적으로 대규모 언어 모델을 사용한 AI 시스템의 성능을 향상시킬 수 있다..
유효정 중국 전문기자(hjyoo@zdnet.co.kr)
Copyright © 지디넷코리아. 무단전재 및 재배포 금지.
- "AI 기술 발전, 인류 멸종 등 극단적 상황 초래 가능성"
- "생성형 AI의 보안은 ‘안전’과’ 정확성’을 함께 원한다"
- "AI 활용 사기 막는다"…MS, '보안' 강화 위한 新 무기 공개
- 과기정통부, AI 활용 보안 기업 육성에 총 48억원 투입
- 지속성장 맞춤형 AI 거버넌스 구축 '선택 아닌 필수'
- 방향 튼 삼성전자, 올해 AI 메모리·폰·가전 성장 가속화
- 일본한테는 네이버가 적국의 기업이란 말인가
- "공작기계 디지털화로 새 산업 지평 열린다"
- 정부, "중기 도약" 17개 과제 추진···R&D·수출·M&A 등 개선
- 마이크로소프트 "사무용 앱서 일하는 코파일럿, 한국말 한다"