[글로벌 오피니언리더] 챗GPT 개발 올트먼 "당장 무거운 규제는 AI 발전 방해"

이규화 2023. 6. 6. 18:10
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

얼마 전 미 의회 청문회에서 인공지능(AI)의 규제에 국제원자력기구(IAEA) 같은 글로벌 기구의 필요성을 제기했던 샘 올트먼(사진) 오픈AI의 최고경영인(CEO)이 이번에는 강한 규제는 안 된다고 발언해 주목을 끌었습니다.

'챗GPT' 개발사 오픈AI CEO인 올트먼은 5일(현지시간) 이스라엘 텔아비브대학교에서 "인공지능 분야에 당장 무거운 규제를 하거나, 혁신을 늦추는 것은 실수라고 생각한다"고 말했습니다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

얼마 전 미 의회 청문회에서 인공지능(AI)의 규제에 국제원자력기구(IAEA) 같은 글로벌 기구의 필요성을 제기했던 샘 올트먼(사진) 오픈AI의 최고경영인(CEO)이 이번에는 강한 규제는 안 된다고 발언해 주목을 끌었습니다.

'챗GPT' 개발사 오픈AI CEO인 올트먼은 5일(현지시간) 이스라엘 텔아비브대학교에서 "인공지능 분야에 당장 무거운 규제를 하거나, 혁신을 늦추는 것은 실수라고 생각한다"고 말했습니다.

그는 이어 향후 10년 안에 사회의 필요에 부합하지 않는 '초지능'(superintelligence, 인간의 지능을 초월하는 인공지능)이 생겨날 위험이 있다면서 "전 세계 기관들이 적응하기에 매우 긴 시간은 아니다"라는 견해를 밝혔습니다. 그는 따라서 인공지능을 규제하는 국제기구가 필요하다는 기존 입장을 재차 언급했습니다.

이 국제기구는 최고의 계산 능력과 기술을 바탕으로 인공지능 면허 모델을 만들고, 안전성을 검증할 수 있어야 한다고 설명했습니다.

그는 "이것은 핵 문제를 감시하는 국제원자력기구(IAEA)처럼 인공지능 문제를 매우 심각한 위험으로 여기고 관리하는 한 방편이 될 것"이라고 말했습니다.

AI의 위험성을 경고하는 전문가들의 목소리는 갈수록 높아지고 있습니다. 지난달 말에는 IT기업 경영자와 과학자 350여명이 경고의 목소리를 냈습니다.

월스트리트저널(WSJ)에 따르면 지난달 30일(현지시간) 비영리단체 'AI안전센터'(CAIS)가 인류의 절멸 가능성까지 언급하면서 AI 기술 통제 필요성을 주장하는 성명을 발표했습니다. CAIS는 성명에서 "AI로 인한 인류 절멸의 위험성을 낮추는 것을 글로벌 차원에서 우선순위로 삼아야 한다"고 촉구했습니다.

올트먼 CEO는 유럽에 이어 최근 중동과 아시아의 여러 국가를 방문할 예정입니다. 중소벤처기업부는 오픈AI의 샘 올트먼 대표와 주요 임원진을 오는 9일 한국으로 초청해 국내 스타트업과의 간담회 등을 개최할 계획이라고 지난달 30일 밝힌 바 있습니다. 중기부 간담회와는 별도로 인공지능 기술에 관심 있는 개발자, 창업가, 학계 관련자 등 일반 청중은 당일 오후 인터넷으로 공개되는 '샘 올트먼 대표와의 좌담회'에 예약을 하고 참석할 수 있다고 밝혔습니다. 이규화 논설실장, EPA 연합뉴스

Copyright © 디지털타임스. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?