오픈AI, AI 위험 감시 강화…“이사회, 경영진 새모델 출시 거부 가능”
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
챗GPT 개발사 오픈AI가 자사의 인공지능(AI) 기술이 초래할 수 있는 위험을 막기 위해 내부 프로세스를 강화하고 나섰다.
18일(현지시간) 오픈AI는 자사 기술을 악용해 화학무기나 생물무기를 제조하는 등 AI가 초래할 수 있는 심각한 위험을 막기 위한 방안을 공개했다.
오픈AI는 이 팀에 대해 "해킹과 화학, 핵, 생물학적 위협 등 수천억 달러의 경제적 피해나 다수의 인명 피해를 초래할 수 있는 AI에 내재된 재앙적 위험 가능성을 모니터링한다"고 설명했다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
[헤럴드경제=손미정 기자] 챗GPT 개발사 오픈AI가 자사의 인공지능(AI) 기술이 초래할 수 있는 위험을 막기 위해 내부 프로세스를 강화하고 나섰다.
18일(현지시간) 오픈AI는 자사 기술을 악용해 화학무기나 생물무기를 제조하는 등 AI가 초래할 수 있는 심각한 위험을 막기 위한 방안을 공개했다.
오픈AI는 우선 AI 시스템을 지속적으로 평가하고 위험을 모니터링하는 ‘대비(preparedness)팀’을 최근 조직했다. 알렉산더 마드리 매사추세츠 공대 AI 교수가 이끄는 이 팀은 AI 연구원과 컴퓨터 과학자, 국가 보안 전문가 및 정책 전문가 등으로 구성될 예정이다.
오픈AI는 이 팀에 대해 “해킹과 화학, 핵, 생물학적 위협 등 수천억 달러의 경제적 피해나 다수의 인명 피해를 초래할 수 있는 AI에 내재된 재앙적 위험 가능성을 모니터링한다”고 설명했다. 팀은 AI 기술을 모니터링하고 지속적으로 테스트하는 과정에서 AI 능력이 위험해지고 있다고 판단되면 회사에 경고하는 역할을 맡는다.
대비팀은 오픈AI의 AI 안전 관련 3개 조직 중 가장 최근에 추가됐다. 오픈AI에는 대비팀 외에도 최신 대규모언어모델(LLM) GPT-4와 같은 현재 제품의 안전을 검토하는 안전 시스템팀, 미래에 존재할 수 있는 강력하고 가상의 AI 시스템에 초점을 맞춘 초연결팀이 있다.
AI 기술의 급격한 상업화를 차단하기 위한 방안도 마련했다.
오픈AI는 향후 오픈AI 경영진이 대비팀의 보고서를 바탕으로 새로운 AI 모델을 출시할지 여부를 결정하게 되며, 경영진이 안전하다고 판단해 출시를 결정한다고 해도 이사회가 이를 거부할 수 있다고 오픈AI는 설명했다.
이번 방안은 샘 올트먼 최고경영자(CEO) 축출 사태 이후 혼란을 겪는 오픈AI의 이사회와 경영진 간 권력 균형에 관심이 쏠린 가운데 나왔다.
이처럼 경영진의 AI 모델 출시를 보류할 수 있게 한 것과 관련해 블룸버그 통신은 이사회에 최첨단 기술 개발을 위한 안전장치를 강화하도록 권한을 부여한 대목이라고 평가했다.
balme@heraldcorp.com
Copyright © 헤럴드경제. 무단전재 및 재배포 금지.
- 원로가수 성희롱 폭로 사유리, 영상 지웠다…무분별한 추측 난무
- “가수 홍기도 고생했다는 ‘질환’” 실제 사진 충격…아무도 몰랐던 ‘사실’
- 백종원 “엄청난 배신감”…예산시장서 신고당해 서운함 ‘폭발’
- 김석훈 “月지출 100만원 이내”…소득 1분위 평균이 123만원인데, 이게 가능? [투자360]
- “유재석·임영웅, 이낙연 신당 원한다고?”…‘논란’ 포스터, 알고 보니
- 걸그룹 능가하는 ‘이효리 파워’?…5개월 만에 50억 벌었다
- 18층 아파트 옥상 지붕서 애정행각 ‘간 큰 커플’…사진만 봐도 ‘아찔’
- ‘장사천재2’ 백종원이 지휘하는 천재즈의 ‘핀초 포테’ 대처 작전
- [영상] 여성팬 밀쳐 바닥에 내동댕이…“아이돌 경호, 폭력 수준”
- ‘저세상 미모’ 조민, DNA검사 결과 보니 “인도 나올 줄 알았는데 뻔한 결과”