'AI 위험 막는다'…챗GPT 개발사 오픈AI '대응 조직' 구축

김태종 2023. 10. 28. 07:05
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

인공지능(AI) 기술의 급속한 발전과 함께 위험성에 대한 우려가 제기되는 가운데 챗GPT 개발사 오픈AI가 AI가 가져올 위험에 대비하기 위한 조직을 신설했다.

오픈AI는 AI의 '재앙적 위험'을 줄이기 위해 자체 '대비팀'(preparedness team)을 구축했다고 27일(현지시간) 밝혔다.

이 조직은 AI가 야기할 수 있는 "치명적인 위험을 추적, 평가, 예측하고 이를 보호하는 것을 목표로 할 것"이라고 오픈AI는 설명했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

오픈AI [로이터 연합뉴스 자료사진. 재판매 및 DB 금지]

(샌프란시스코=연합뉴스) 김태종 특파원 = 인공지능(AI) 기술의 급속한 발전과 함께 위험성에 대한 우려가 제기되는 가운데 챗GPT 개발사 오픈AI가 AI가 가져올 위험에 대비하기 위한 조직을 신설했다.

오픈AI는 AI의 '재앙적 위험'을 줄이기 위해 자체 '대비팀'(preparedness team)을 구축했다고 27일(현지시간) 밝혔다.

이 조직은 AI가 야기할 수 있는 "치명적인 위험을 추적, 평가, 예측하고 이를 보호하는 것을 목표로 할 것"이라고 오픈AI는 설명했다.

또 AI가 핵무기 등의 무기에 사용되는 '화학적, 생물학적, 방사능적 위협'과 함께 AI가 스스로 복제하는 위험인 '자율 복제'에도 대응한다고 덧붙였다.

오픈AI는 "우리는 현재 가장 진보된 기존 모델의 기능을 뛰어넘는 프런티어 AI 모델이 인류에게 혜택을 줄 수 있는 잠재력이 있다고 믿는다"면서도 "하지만 이는 점점 더 심각한 위험을 초래할 수도 있다"고 우려했다.

이어 "이런 위험한 상황을 피하려면 새로운 AI 시스템의 위험한 기능을 예측하고 사람들을 보호할 수 있는 뼈대를 구축해야 한다"며 "이것이 새로운 팀의 임무 중 하나가 될 것"이라고 말했다.

이 조직은 현재 매사추세츠공대(MIT)의 머신러닝(기계학습) 센터장을 맡고 있는 알렉산더 매드리가 이끌게 된다. 조직 규모는 알려지지 않았다.

오픈AI의 최고경영자(CEO)인 샘 올트먼은 앞서 AI로 인한 재앙 가능성을 경고한 바 있다.

그는 지난 5월 다른 AI 연구자들과 함께 "AI로 인한 위험을 완화하는 것이 글로벌 우선순위가 돼야 한다"는 성명을 발표하고 인류의 절멸 가능성까지 언급하며 AI 기술 통제 필요성을 주장한 바 있다.

또 각국 정부가 AI를 핵무기처럼 "심각하게" 다뤄야 한다고 강조하기도 했다.

taejong75@yna.co.kr

▶제보는 카톡 okjebo

Copyright © 연합뉴스. 무단전재 -재배포, AI 학습 및 활용 금지

이 기사에 대해 어떻게 생각하시나요?