AI 위험 얼마나 무서웠으면?…챗GPT 개발사 오픈AI '대응 조직' 구축

장세훈 기자 2023. 10. 28. 09:51
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

하루가 멀다하고 쏟아지는 인공지능(AI) 신기술.

오죽�으면 챗GPT 개발사 오픈AI가 AI가 가져올 위험에 대비하기 위한 조직을 신설했을까.

오픈AI사의 이 조직은 AI가 야기할 수 있는 "치명적인 위험을 추적, 평가, 예측하고 이를 보호하는 것을 목표로 할 것"이라고 설명했다.

오픈AI의 이 같은 움직임은 생성형 AI가 초래할 수 있는 부작용이나 위험을 미리 대비하겠다는 것.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

하루가 멀다하고 쏟아지는 인공지능(AI) 신기술. 생성형 AI가 인류에게 좋은 것만 알려줄까. AI기술의 급속한 발전과 함께 위험성에 대한 우려가 곳곳에서 제기되고 있다. 오죽�으면 챗GPT 개발사 오픈AI가 AI가 가져올 위험에 대비하기 위한 조직을 신설했을까.

오픈AI는 27일(현지시간) AI의 ‘재앙적 위험’을 줄이기 위해 자체 ‘대비팀’(preparedness team)을 구축했다고 밝혔다.

OpenAI 와 ChatGPT 로고. 로이터=연합뉴스


오픈AI사의 이 조직은 AI가 야기할 수 있는 “치명적인 위험을 추적, 평가, 예측하고 이를 보호하는 것을 목표로 할 것”이라고 설명했다.

또 AI가 핵무기 등의 무기에 사용되는 ‘화학적, 생물학적, 방사능적 위협’과 함께 AI가 스스로 복제하는 위험인 ‘자율 복제’에도 대응한다고 덧붙였다.

오픈AI의 이 같은 움직임은 생성형 AI가 초래할 수 있는 부작용이나 위험을 미리 대비하겠다는 것.

오픈AI는 “우리는 현재 가장 진보된 기존 모델의 기능을 뛰어넘는 프런티어 AI 모델이 인류에게 혜택을 줄 수 있는 잠재력이 있다고 믿는다”면서도 “하지만 이는 점점 더 심각한 위험을 초래할 수도 있다”고 우려했다.

이어 “이런 위험한 상황을 피하려면 새로운 AI 시스템의 위험한 기능을 예측하고 사람들을 보호할 수 있는 뼈대를 구축해야 한다”며 “이것이 새로운 팀의 임무 중 하나가 될 것”이라고 말했다.

이 조직은 현재 매사추세츠공대(MIT)의 머신러닝(기계학습) 센터장을 맡고 있는 알렉산더 매드리가 이끌게 된다. 조직 규모는 알려지지 않았다.

오픈AI의 최고경영자(CEO)인 샘 올트먼은 앞서 AI로 인한 재앙 가능성을 경고한 바 있다.

Copyright © 국제신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?