오픈AI, 새 '안전·보안위원회' 구성…전 안전 책임자는 경쟁사 '앤스로픽'으로
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
챗GPT 개발사 오픈AI가 새로운 새로운 '안전·보안위원회'를 구성했다고 밝혔다.
오픈AI는 28일(현지시간) 자사 블로그를 통해 생성형 인공지능(AI) 기술 개발 과정에 안전과 윤리 문제를 점검하기 위해 새로운 안전·보안위원회를 구성했다고 밝혔다.
블룸버그통신은 레이케가 공교롭게도 오픈AI가 새 안전·보안위원회를 구성했다고 밝힌 날, 자신의 소셜미디어 'X(옛 트위터)'에 직접 이러한 사실을 밝혔다고 보도했다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
챗GPT 개발사 오픈AI가 새로운 새로운 '안전·보안위원회'를 구성했다고 밝혔다. 같은 날 오픈AI의 안전 연구를 담당하던 전 책임자가 경쟁사로 이직해 눈길을 끌었다.
오픈AI는 28일(현지시간) 자사 블로그를 통해 생성형 인공지능(AI) 기술 개발 과정에 안전과 윤리 문제를 점검하기 위해 새로운 안전·보안위원회를 구성했다고 밝혔다.
새 위원회는 브렛 테일러 이사회 의장과 샘 올트먼 최고경영자(CEO), 애덤 단젤로 이사 등이 이끈다.
오픈AI는 위원회의 첫 번째 과제가 “앞으로 90일동안 오픈AI의 프로세스와 안전장치를 평가하고 더욱 발전시키는 것”이라고 소개했다.
90일이 지나면 위원회는 전체 이사회와 권고사항을 공유하고, 이사회 검토에 따라 채택된 권장 사항에 대한 업데이트를 공개적으로 공유할 것이라고 덧붙였다.
같은 날, 오픈AI 안전팀 공동 책임자였던 얀 레이케는 경쟁사인 앤스로픽에 합류했다.
블룸버그통신은 레이케가 공교롭게도 오픈AI가 새 안전·보안위원회를 구성했다고 밝힌 날, 자신의 소셜미디어 'X(옛 트위터)'에 직접 이러한 사실을 밝혔다고 보도했다.
레이케에 앞서 AI의 장기적 위험을 연구하는 '슈퍼얼라이먼트(superalignment·초정렬)' 팀을 함께 이끌었던 일리야 수츠케버가 이달 초 오픈AI를 떠났다.
초정렬은 미래에 만들어질 초지능 AI를 제어해 인간에게 유용하고 해롭지 않은 방식으로 행동하도록 조절하는 연구를 뜻한다. 즉 AGI의 안전한 활용을 위한 연구를 진행한다.
당시 레이케는 “안전문화와 프로세스가 제품 뒷전으로 밀려났다”며 오픈AI를 비판했고, 그들이 이끌던 팀은 이후 해체됐다. 결국 한 달도 되지 않아 경쟁사로 복귀한 것이다.
레이케는 앤스로픽에서 자신의 업무가 오픈AI에서 맡았던 것과 유사하며 '인간을 뛰어넘는 AI 모델' 제어와 관련된 안전 문제에 초점을 맞출 것이라고 전했다.
김명희 기자 noprint@etnews.com
Copyright © 전자신문. 무단전재 및 재배포 금지.
- 삼성, 시스템 반도체 AI로 설계한다
- 테슬라, 2170 배터리 업그레이드…韓 소재 적용 확대
- KT SAT, 스타링크·원웹 이어 독일 리바다와 저궤도위성 협력
- LG전자, 종로에 첫 팝업스토어 매장 열어
- AWS 등 외산기업에 민간병원 EMR 클라우드 시장 열려
- 타란튤라 DB까지 가세···공공 DBMS 시장 경쟁 치열해진다
- '웹3.0 디지털 금융의 미래' 개최…“금융 디지털전환(DX) 전방위 대응 시급”
- “경쟁사 망하게 해드립니다”...e커머스 어뷰징 '몸살'
- 이정애號 LG생건, 데이터 기반 경영 강화…통합 멤버십으로 전환
- 롯데바이오로직스, 美 공장 역량 강화 총력…송도에 노하우 이식