오픈AI, ‘안전·보안위원회’ 독립기구로 운영…샘 올트먼은 물러나

선담은 기자 2024. 9. 18. 15:25
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

오픈에이아이(AI)가 인공지능 기술 안전과 윤리 문제를 검토하기 위해 지난 5월 꾸린 안전·보안위원회(위원회)를 이사회 감독위원회로 격상했다.

타임지는 오픈에이아이 전 이사회 멤버인 헬렌 토너와 타샤 맥컬리의 말을 빌려 "독립적인 이사회를 구성하는 것만으로는 회사가 직면한 (인공지능의 안전 문제와 상충하는) 강력한 수익 인센티브에 대한 균형을 맞추기에 충분하지 않다"고 꼬집었다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

에이피(AP)/연합뉴스

오픈에이아이(AI)가 인공지능 기술 안전과 윤리 문제를 검토하기 위해 지난 5월 꾸린 안전·보안위원회(위원회)를 이사회 감독위원회로 격상했다.

오픈에이아이는 16일(현지시각) 이런 내용을 발표하며 지난달 이사회에 합류한 지코 콜터 카네기멜런대 머신러닝(기계학습) 교수를 위원장으로 선임했다고 밝혔다. 샘 올트먼 최고경영자(CEO)와 브렛 테일러 이사회 의장 등 기존에 위원회를 이끌었던 주요 인사들은 자리에서 물러났다. 오픈에이아이는 “위원회는 주요 모델 출시를 위한 안전 평가에 대해 경영진의 보고를 받게 되며, 이사회와 함께 안전 문제가 해결될 때까지 모델 출시를 연기할 수 있는 권한 등 감독권을 행사할 것”이라고 설명했다.

위원회는 지난 5월 출범 때 이윤추구를 위해 ‘안전한 인공지능’ 개발을 도외시한다고 비판받는 샘 올트먼이 합류하면서 그 실효성에 의문이 제기됐다. 당시 샘 올트먼은 인공지능 모델 ‘지피티-4오’(GPT-4o)에 배우 스칼릿 조핸슨 목소리를 도용했다는 논란에 휩싸였다.

샘 올트먼이 물러났지만, 회사 안팎의 평가는 싸늘하다. 타임지는 오픈에이아이 전 이사회 멤버인 헬렌 토너와 타샤 맥컬리의 말을 빌려 “독립적인 이사회를 구성하는 것만으로는 회사가 직면한 (인공지능의 안전 문제와 상충하는) 강력한 수익 인센티브에 대한 균형을 맞추기에 충분하지 않다”고 꼬집었다.

이런 가운데 오픈에이아이가 지난 12일(현지시각) 공개한 새로운 인공지능 모델 ‘오픈에이아이 오1(o1)’도 안전성 문제에 휘말리고 있다. 파이낸셜타임즈(FT)는 단계별 추론을 수행하는 오픈에이아이 오1의 오남용 가능성을 우려하며 “최신 인공지능 모델이 범용인공지능(AGI)으로 발전함에 따라 적절한 안전 장치가 없다면 (AI 기술로 인한) 위험이 계속 증가할 것”(요슈아 벤지오 캐나다 몬트리올대 교수)이란 전문가 의견을 전했다.

선담은 기자 sun@hani.co.kr

Copyright © 한겨레신문사 All Rights Reserved. 무단 전재, 재배포, AI 학습 및 활용 금지

이 기사에 대해 어떻게 생각하시나요?