머스크 등 "윤리 규정부터 마련…AI 개발, 최소 6개월 멈추자"

박종화 2023. 3. 29. 16:20
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

일론 머스크 테슬라 최고경영자(CEO) 등 각계 인사 1000여명이 윤리성과 안전성이 담보되기 전까지 첨단 인공지능(AI) 개발을 보류해야 한다고 촉구했다.

28일(현지시간) 로이터통신 등에 따르면 AI 연구 관련 비영리단체인 퓨처오브라이프는 최근 "모든 AI 연구기관에 GPT-4(오픈AI가 이달 공개한 최신 AI 언어학습모델)보다 강력한 AI 시스템 학습을 최소 6개월 동안 중단할 것을 요청한다"는 공개서한을 AI 개발업계에 보냈다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

스티브 워즈니악·유발 하라리 등과 업계에 공개서한
"AI, 사회·인류에 심각한 위험 초래할 수도"

[이데일리 박종화 기자] 일론 머스크 테슬라 최고경영자(CEO) 등 각계 인사 1000여명이 윤리성과 안전성이 담보되기 전까지 첨단 인공지능(AI) 개발을 보류해야 한다고 촉구했다.

일론 머스크 테슬라 최고경영자(CEO). (사진=AFP)
28일(현지시간) 로이터통신 등에 따르면 AI 연구 관련 비영리단체인 퓨처오브라이프는 최근 “모든 AI 연구기관에 GPT-4(오픈AI가 이달 공개한 최신 AI 언어학습모델)보다 강력한 AI 시스템 학습을 최소 6개월 동안 중단할 것을 요청한다”는 공개서한을 AI 개발업계에 보냈다. 이 서한엔 머스크 CEO와 스티브 워즈니악 애플 공동 창업자, 잔 탈린 스카이프 공동 창업자, 유발 하라리 히브리대 교수 등 각계 인사 1126명이 서명했다.

이들은 “인간과 경쟁할 수 있는 지능을 갖춘 AI는 사회와 인류에 심각한 위험을 초래할 수 있다”며 “강력한 AI 시스템은 그 효과가 긍정적이고 그 위험을 관리할 수 있다는 확신이 설 때 개발해야 한다”고 주장했다. 이들은 AI의 잠재적 위험을 예방하고 만일의 혼란에 대비할 수 있는 안전 프로토콜(공동규약)과 거버넌스 시스템을 만들어질 때까지 첨단 AI 개발을 보류할 것을 주문했다.

이번 서한에 서명한 게리 마커스 뉴욕대 교수는 “(AI의) 파급 효과를 확실히 이해할 때까지 (개발) 속도를 늦출 필요가 있다”며 “(AI업계) 거물들은 그들이 하는 일에 대해 점점 비밀스러워지고 있으며 이로 인해 어떤 피해가 발생하든 사회는 그걸 방어하기 어려워졌다”고 로이터에 말했다.

오픈AI의 공동 창업자 중 한 명인 머스크는 지난달에도 “문명의 미래에 가장 큰 위험 중 하나는 AI”라고 공개 경고했다. 그는 고도화된 AI가 인간의 일자리를 뺏고 나아가 오판을 유도해 전쟁을 일으킬 가능성까지 제기한 바 있다.

그러나 일부 회사는 최근 오히려 인력 구조조정 과정에서 AI 윤리 관련 인력을 축소한 것으로 전해졌다. 파이낸셜타임스는 머스크가 이끄는 트위터를 포함해 마이크로소프트와 메타(페이스북 모기업), 아마존 등이 AI 윤리 담당 조직과 직원을 축소했다고 이날 보도했다.

박종화 (bell@edaily.co.kr)

Copyright © 이데일리. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?