오픈AI, AI 기술위험 ‘대비팀’ 조직

김경택 2023. 12. 20. 04:04
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

챗GPT를 개발한 오픈AI가 인공지능(AI) 기술의 위험에 대비해 최근 조직한 '대비(Preparedness)팀' 역할을 공개했다.

지난달 샘 올트먼(사진) 오픈AI 최고경영자(CEO)의 해고와 복귀 사태 이후 오픈AI가 급속도로 상업화할 것이라는 우려에 대응하는 포석으로 풀이된다.

오픈AI는 18일(현지시간) 홈페이지에 "갈수록 강력해지는 (AI) 모델이 초래하는 재앙적 위험을 추적·평가·예측하고 방지하기 위한 것"이라며 대비팀의 기능을 소개했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

AI 모델이 초래하는 재앙적 위험
추적·평가·예측하고 방지 역할
로이터연합뉴스


챗GPT를 개발한 오픈AI가 인공지능(AI) 기술의 위험에 대비해 최근 조직한 ‘대비(Preparedness)팀’ 역할을 공개했다. 지난달 샘 올트먼(사진) 오픈AI 최고경영자(CEO)의 해고와 복귀 사태 이후 오픈AI가 급속도로 상업화할 것이라는 우려에 대응하는 포석으로 풀이된다.

오픈AI는 18일(현지시간) 홈페이지에 “갈수록 강력해지는 (AI) 모델이 초래하는 재앙적 위험을 추적·평가·예측하고 방지하기 위한 것”이라며 대비팀의 기능을 소개했다.

AI 연구원, 컴퓨터 과학자, 국가안보 전문가 등으로 꾸려지는 대비팀은 오픈AI 이사회나 경영진 입김에서 벗어난 리스크 관리 업무를 전담할 전망이다. 오픈AI의 AI 기술을 모니터링하면서 각종 위험 문제를 회사에 경고하는 역할을 맡는다.

이사회는 대비팀 보고서를 근거로 경영진의 사업 결정을 바꾸도록 할 수 있다. 예를 들어 AI 모델이 핵이나 생화학 무기 등의 위협이나 해킹 위험을 일정 수준 이상 높인다고 판단될 경우 개발을 중단하도록 하는 방식이다. 출시돼 있는 AI 모델의 안전을 점검하는 ‘안전시스템팀’도 신설됐다.

오픈AI는 지난달 올트먼 CEO 해고 사태 이후 새 이사진을 꾸리는 절차를 진행 중이다. 대비팀의 수장 격인 알렉산더 매드리 매사추세츠공대(MIT) 교수는 올트먼 CEO 해고 당시 그와 함께 회사를 그만뒀다가 복귀한 인물이다.

매드리 교수는 “AI가 사회에 어떤 영향을 끼치고 있는지 정말로 확인하고 싶다면, 실제로 그러한 회사에 들어가지 않을 이유가 없다는 것을 깨달았다”고 말했다고 워싱턴포스트(WP)가 보도했다.

김경택 기자 ptyx@kmib.co.kr

GoodNews paper ⓒ 국민일보(www.kmib.co.kr), 무단전재 및 수집, 재배포금지

Copyright © 국민일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?