오픈AI "안전성 입증된 기업만 새 AI 기술 사용 가능"

김미정 기자 2023. 12. 19. 18:28
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

오픈AI는 안전한 생성형 인공지능(AI) 사용 확대를 위한 프레임워크를 만들었다.

회사가 안전하다고 판단하는 기업·기관에만 최신 AI 기술을 배포할 방침이다.

18일 오픈AI는 사이버 보안이나 핵무기 제조 등 특정 영역 사용자에게 최신 AI 기술 공급 제한을 걸겠다고 공식 홈페이지를 통해 밝혔다.

특정 분야 사용자가 안전하게 AI 기술을 활용하겠다는 보고서를 제출하고, 승인받아야만 오픈AI의 최신 솔루션을 이용할 수 있다는 내용이다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

보안·핵 제조 등 특정 영역 기업, AI 안전 보고서 제출 필수

(지디넷코리아=김미정 기자)오픈AI는 안전한 생성형 인공지능(AI) 사용 확대를 위한 프레임워크를 만들었다. 회사가 안전하다고 판단하는 기업·기관에만 최신 AI 기술을 배포할 방침이다.

18일 오픈AI는 사이버 보안이나 핵무기 제조 등 특정 영역 사용자에게 최신 AI 기술 공급 제한을 걸겠다고 공식 홈페이지를 통해 밝혔다. 특정 분야 사용자가 안전하게 AI 기술을 활용하겠다는 보고서를 제출하고, 승인받아야만 오픈AI의 최신 솔루션을 이용할 수 있다는 내용이다.

발표문에 따르면, 특정 기업이나 기관이 안전 보고서를 별도로 오픈AI에 제출해야 한다. 새로운 AI 기술을 어떤 분야에 어떤 방식으로 사용할 건지 최대한 구체적으로 작성해야 한다. 오픈AI는 보고서 검토 후 배포 여부를 판단한다. 이때 경영진과 이사회가 모두 솔루션 공급에 동의해야만 한다. 모두 찬성하면, 오픈AI는 해당 사용자에게 새 AI 솔루션을 제공한다.

샘 알트먼 오픈AI CEO

오픈AI는 편파적인 의견 제시를 피하고자 그룹 자문단도 구성한다고 밝혔다. 기업 외부에서 활동하는 AI 연구원을 비롯한 컴퓨터 과학자, 국가 안보 전문가, 정책 전문가들이 안전 보고서 평가를 돕기로 했다. 미국 매사추세츠공과대학(MIT) 알렉산더 매드리 교수가 해당 팀을 이끈다. 매드리 교수는 MIT에서 AI 정책 포럼을 운영하고 있다.

매드리 교수는 "오픈AI 외부에서 충분한 능력을 갖춘 AI 전문가를 자문단에 더 추가할 것"이라며 "어느 한쪽에도 치우치지 않은 판단을 경영진과 이사회에 제시할 것"이라고 전했다.

김미정 기자(notyetkim@zdnet.co.kr)

Copyright © 지디넷코리아. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?