"AI 안전은 뒷전"…美 빅테크, 잇따른 구설수로 명성 '흔들'

김미정 기자 2024. 6. 1. 06:01
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

미국 빅테크 명성이 도마에 올랐다.

생성형 인공지능(AI) 기술 오류와 사내 갈등 이슈가 지속적으로 발생하면서다.

AI 안전성을 주장하던 주요 인물들이 줄줄이 사퇴하고, AI 안전 연구팀이 해체되는 등의 내부 갈등이 발생했다.

최근 헬렌 토너 전 이사는 알트먼 CEO를 비롯한 경영진들은 이사회가 꾸준히 요청한 AI 윤리·안전성을 뒷전으로 했다고 털어놨다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

구글, 'AI 오버뷰' 환각현상 꾸준히 나와…오픈AI, 'AI 안전성 뒷전' 오명

(지디넷코리아=김미정 기자)미국 빅테크 명성이 도마에 올랐다. 생성형 인공지능(AI) 기술 오류와 사내 갈등 이슈가 지속적으로 발생하면서다. 이에 제품 신뢰성과 기업 이미지에 큰 타격이 생겼다. 

31일 업계에 따르면 구글 생성형 AI 검색 서비스 'AI 오버뷰'가 비정상적인 검색 결과를 제공해 뭇매를 맞았다. 검색 결과에 틀린 내용이나 관련 없는 답변을 제공했기 때문이다. 일각에선 '세계 1위 검색엔진 기업'이라는 명성까지 잃을 처지라는 지적이 이어졌다.

오픈AI는 내부 갈등으로 인한 잡음이 끊이지 않고 있다. 내부 이사회는 경영진이 AI 안전성을 소홀히 하고 수익 추구만 한다고 회사를 공개 비난했다. 

미국 빅테크에서 생성형 AI 기술 오류와 사내 갈등 이슈가 지속적으로 발생했다. (사진=오픈AI)

AI 안전성을 주장하던 주요 인물들이 줄줄이 사퇴하고, AI 안전 연구팀이 해체되는 등의 내부 갈등이 발생했다.

"구글의 'AI 오버뷰' 도입은 큰 실수"

구글 생성형 AI 검색 서비스 AI 오버뷰가 환각현상을 일으킨 사례가 나왔다. 이 서비스는 이달 초 구글 연례 컨퍼런스에서 소개됐다. 사용자 맞춤형 검색 결과 제공, 요약해 주는 서비스다. 결과에 대한 링크도 공유한다. 

맞춤형 검색 가능한 AI 오버뷰 기능. (사진=구글)

현재 AI 오버뷰는 사용자에게 틀린 검색 결과나 비정상적인 답변을 제공해 뭇매를 맞고 있다. 사용자들은 관련 내용을 캡처해 소셜네트워크서비스(SNS)에 공유하기도 했다.

예를 들어 사용자가 '피자에 치즈가 조화롭게 붙으려면 어떻게 해야 하지?'라고 AI 오버뷰에 검색하면, '피자에 접착제를 사용하면 된다'는 답을 받았다. 뿐만 아니라 '버락 오마바 전 미국 대통령이다'라거나 제임스 매디슨 전 미국 대통령이 위스콘신대를 한번이 아니라 21번 졸업했다는 검색 결과도 SNS에 등장했다.

이에 다수 외신은 구글의 AI 오버뷰 도입은 실수라며 문제를 신속히 해결하지 않으면 장기적으로 명성에 큰 손상을 입을 것이라고 경고했다. 구글이 오픈AI나 메타 등 생성형 AI 경쟁사를 따라잡기 위해 불완전한 AI를 어설프게 출시한 것 아니냐는 평가도 나왔다.

오픈AI, 끝없는 사내잡음…이사회 "알트먼, AI 안전은 뒷전" 

샘 알트먼 오픈AI 최고경영자(CEO)를 비롯한 경영진이 AI 안전성보다 비즈니스 확장에 신경 썼다는 주장도 제기됐다. 이로 인해 경영진과 이사회 사이에 잡음이 지속적으로 나왔던 것이다.

일리야 수츠케버 전 오픈AI 공동설립자 겸 최고과학자. (사진=지디넷코리아DB)

최근 헬렌 토너 전 이사는 알트먼 CEO를 비롯한 경영진들은 이사회가 꾸준히 요청한 AI 윤리·안전성을 뒷전으로 했다고 털어놨다. 그는 "알트먼과 경영진은 이사진 동의 없이 스타트업 투자 계획을 발표했다"며 "이들은 이사회 발언을 묵살하고 비즈니스 확장만 신경 썼다"고 말했다.

알트먼이 이사회에 AI 윤리·안전 정책에 대한 부정확한 정보를 제공했다는 점도 설명했다. 이에 이사회는 오픈AI 제품 안전성 평가를 할 수 있는 기준이 명확하지 않아 어려움을 겪었다는 것이다. 

오픈AI는 AI 안전을 연구하는 '수퍼얼라인먼트' 부서를 이달 초 없앴다. 해당 팀원은 타팀으로 재배치된 것으로 전해졌다. 팀을 이끈 일리야 수츠케버 오픈AI 공동창립자 겸 최고과학자도 회사를 떠났다. 

지난해 5월 중소벤처기업부 행사에서 이영 장관과 오픈AI 관계자가 기념촬영을 하고 있다. 이영 장관 오른편이 샘 알트먼 오픈AI CEO.

수퍼얼라인언트 공동 리더인 얀 리이크도 뒤따라 오픈AI를 퇴사했다. 얀 리이크는 이달 18일 "안전은 AI 제품에 밀려 뒷전이 됐다"고 밝혔다. 이에 외신은 "AI 안전성을 강조하는 멤버들이 회사를 떠났다"며 "오픈AI는 수익에 급급한 기업이라는 오명을 썼다"고 평가했다.

오픈AI 측은 AI 안전에 대해 지속적으로 노력해 왔다는 입장이다. 오픈AI 애슐리 판툴리아노 법률고문은 이달 22일 서울에서 열린 'AI와 데이터 거버넌스 국제 컨퍼런스'에서 "오픈AI는 여전히 안전에 매우 집중하고 있다"며 "최근 이슈는 안전에 대한 오픈AI 행보를 되돌아보도록 도와줬다"고 밝혔다. 

김미정 기자(notyetkim@zdnet.co.kr)

Copyright © 지디넷코리아. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?