오픈AI, AI 장기리스크 대비 안전팀 해체…경영진 갈등 후폭풍?
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
챗GPT 개발사 오픈AI가 인공지능(AI)의 장기적인 위험에 대해 연구하는 안전팀을 사실상 해체했다고 블룸버그 통신 등이 보도했습니다.
매체들은 내부 소식통을 인용해, 오픈AI의 슈퍼얼라인먼트(superalignment) 팀 일부가 다른 팀으로 재배치되고 있다고 전했습니다.
'슈퍼 얼라인먼트'팀은 미래에 구현될 초지능 AI를 제어함으로써 인간에게 유용하고 해롭지 않은 방식으로 행동하도록 연구하는 안전팀입니다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
챗GPT 개발사 오픈AI가 인공지능(AI)의 장기적인 위험에 대해 연구하는 안전팀을 사실상 해체했다고 블룸버그 통신 등이 보도했습니다.
매체들은 내부 소식통을 인용해, 오픈AI의 슈퍼얼라인먼트(superalignment) 팀 일부가 다른 팀으로 재배치되고 있다고 전했습니다.
'슈퍼 얼라인먼트'팀은 미래에 구현될 초지능 AI를 제어함으로써 인간에게 유용하고 해롭지 않은 방식으로 행동하도록 연구하는 안전팀입니다.
작년 7월 설치된 이 팀은 "우리보다 훨씬 더 똑똑한 AI 시스템을 조종하고 제어하기 위한 과학적이고 기술적인 연구에 초점을 맞추고 있다"고 밝힌 바 있습니다.
이 팀의 해체는 오픈AI의 공동 창립자 일리야 수츠케버 등 팀을 이끌던 주요 인력이 잇따라 회사를 떠난 지 며칠 만에 나왔습니다.
오픈AI의 수석과학자로 일해 온 수츠케버는 지난해 11월 샘 올트먼을 CEO직에서 축출할 때 주도적인 역할을 했던 인물로, 지난 14일 "오픈AI를 떠나기로 결정했다"고 밝힌 바 있습니다.
수츠케버는 지난해 올트먼 축출 당시, 회사가 AI의 위험성에 대해 충분한 주의를 기울이지 않은 채 사업을 구축하는 데만 집중한다고 우려했던 것으로 알려졌습니다.
수츠케버와 함께 AI 안전팀을 이끌던 또다른 임원인 얀 레이케도 최근 회사를 떠났습니다.
레이케는 "나는 오픈AI가 이 연구(초정렬)를 하기 가장 좋은 장소가 될 것으로 생각했었다"며 "그러나 오랫동안 회사의 핵심 우선순위에 대해 경영진과 의견이 달랐다"고 토로했습니다.
이어 "인간보다 더 똑똑한 기계를 만드는 것은 본질적으로 위험한 노력"이라며 "오픈AI는 인류를 대표해 엄청난 책임을 지고 있지만, 지난 몇 년간 안전 문화와 프로세스는 제품 뒷전으로 밀려났다"고 지적했습니다.
(사진=AP, 연합뉴스)
이현식 D콘텐츠 제작위원 hyunsik@sbs.co.kr
Copyright © Copyright ⓒ SBS. All rights reserved. 무단 전재, 재배포 및 AI학습 이용 금지
- "김호중 소변서 음주대사체 검출"…공연 강행 예고
- "상태 좀 볼게요" 중고거래 중 롤렉스 들고 튄 20대 집유
- [Pick] 코스타리카는 왜 공영 동물원을 모두 없앴나?…"동물 보호 위해"
- 멍든 채 숨진 8살…"자녀 8명 지원금 유흥비로"
- 이기적 주차 테러, 이례적 '사이다 결말'…어떻게 가능했나 [사실은]
- [단독] "진료 전 신분증" 당장 다음 주부터인데…모바일 건강보험증 '구멍'
- 강남역 살인 8년…화장실 비상벨 눌러도 "누구세요?"
- 냉면 한 그릇 '1만 2천 원'…"차라리 집에서 해먹지" 한숨
- [영상] "슈퍼맨 찾습니다"…경찰 도와 고장 차량 밀어낸 환경미화원
- 인천 오피스텔 12층서 난간 붙잡고 있던 20대 여성 추락사