전문가 350명 "AI, '핵무기' 비견되는 위험성"
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
급속도로 발전하는 인공지능(AI)의 위험성에 대해 IT기업 경영자와 과학자 350여명이 경고의 목소리를 냈다.
월스트리트저널(WSJ)은 30일(현지시간) 비영리단체 'AI안전센터'(CAIS)가 인류의 절멸 가능성까지 언급하면서 AI 기술 통제 필요성을 주장하는 성명을 발표했다고 보도했다.
CAIS는 성명에서 "AI로 인한 인류 절멸의 위험성을 낮추는 것은 글로벌 차원에서 우선순위로 삼아야 한다"고 촉구했다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
[한국경제TV 조시형 기자]
급속도로 발전하는 인공지능(AI)의 위험성에 대해 IT기업 경영자와 과학자 350여명이 경고의 목소리를 냈다.
월스트리트저널(WSJ)은 30일(현지시간) 비영리단체 'AI안전센터'(CAIS)가 인류의 절멸 가능성까지 언급하면서 AI 기술 통제 필요성을 주장하는 성명을 발표했다고 보도했다.
CAIS는 성명에서 "AI로 인한 인류 절멸의 위험성을 낮추는 것은 글로벌 차원에서 우선순위로 삼아야 한다"고 촉구했다.
그러면서 AI의 위험성을 핵무기와 신종 전염병에 비견했다.
성명은 대중도 AI 기술이 지닌 위험성을 인식해왔지만, 훨씬 다양한 분야에 대한 해결책이 논의돼야 한다고 강조하면서 공개적인 토론 필요성을 강조했다.
이 성명에는 대화형 AI 챗GPT의 창시자 샘 올트먼 오픈AI 최고경영자(CEO)와 미라 무라티 최고기술분야대표(CTO)가 서명했다.
또한 케빈 스콧 마이크로소프트(MS) CTO와 구글의 AI 분야 책임자인 릴라 이브라힘, 메리언 로저스도 이름을 올렸다.
이와 함께 유엔에서 군축 분야를 담당했던 앤젤라 케인도 서명하는 등 각 분야 전문가도 동참했다.
CAIS는 서명에 동참할 전문가들을 추가로 모집하고 있다.
앞서 올트먼 오픈AI CEO의 경우 AI의 잠재적 위험을 통제하고 부작용을 막기 위해 국제원자력기구(IAEA) 같은 국제기구가 필요하다는 방안을 제시한 바 있다.
최근 챗GTP가 AI에 대한 대중의 관심을 촉발한 이후 AI의 위험성에 대한 우려도 확산하고 있다.
이달 초에는 백악관이 오픈AI를 비롯해 구글 등 핵심 기업을 초청해 카멀라 해리스 부통령 주관으로 대책 회의를 개최했고, 이어 열린 상하원 청문회에서는 AI의 위험을 완화하기 위해 정부 차원의 규제와 개입, 국제 표준 마련이 필요하다는 주장이 제기됐다.
조시형기자 jsh1990@wowtv.co.kr
Copyright © 한국경제TV. 무단전재 및 재배포 금지.