‘챗GPT CEO’ 해임 논란에 AI 위험성 수면 위로…“어떤 변화 있을지 지켜볼 뿐”

김헌주 2023. 11. 20. 20:52
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

샘 올트먼, 오픈AI 해임→MS 합류
AI 안전, 기술 개발 속도 놓고 이견?
“이익 극대화? AI 특수성 고려해야”
국내 기업, AI 윤리 발표·주기적 점검
샘 올트먼 전 오픈AI 최고경영자(CEO) 가 지난 16일 미국 캘리포니아 샌프란시스코에서 열린 아시아태평양경제협력체(APEC) 정상회의에서 발언하고 있다. 샌프란시스코 AP 연합뉴스

생성형 인공지능(AI) ‘챗GPT’를 출시해 전 세계를 충격에 빠뜨린 미국 오픈AI의 샘 올트먼 최고경영자(CEO)가 하루아침에 해임되는 사건이 벌어지자 국내 AI 업계에서도 촉각을 곤두세우고 있다.

비영리 조직으로 출발했다가 챗GPT를 내놓고 AI 수익화에 속도를 내던 오픈AI가 CEO 교체 이후 어떤 모습으로 바뀔지, 오픈AI에서 쫓겨나 마이크로소프트(MS)에 합류한 올트먼의 다음 행보는 어떻게 될지 등 모든 게 불확실하기 때문이다.

해임 사유가 명확하게 밝혀지지 않았지만 이 사건으로 AI의 안전성과 효율성을 둘러싼 논란도 다시 수면 위로 올라왔다.

전문가들 사이에서는 “내부 갈등이 결국 터진 것”이라는 해석과 함께 AI 기술 발전 과정의 과도기에서 발생한 ‘진통’이라는 분석도 나왔다.

이성엽(한국데이터법정책학회장) 고려대 기술경영전문대학원 교수는 20일 올트먼의 해임 사건과 관련해 “AI로 인한 비즈니스 모델을 만들어 수익화하고, 산업 혁신을 끌고 가야 한다는 주장과 AI 발전 속도가 예상보다 빨라서 통제가능하도록 규제하지 않으면 인류 전체에 위험이 생길 수 있다는 논리가 부딪친 게 아닌가 추정된다”면서 “이는 AI 기술이 가진 특수성 때문에 벌어진 일”이라고 진단했다.

‘게임체인저’인 AI의 변화 양상이나 속도가 광범위하고 기존의 기술과 달리 인간을 대체할 정도의 상당한 파급력이 있다 보니 CEO 본연의 역할인 주주이익·기업가치 극대화만을 추구하는 게 과연 맞는 것이냐는 질문을 던졌다는 것이다.

이 사건은 글로벌 화두로 떠오른 환경·사회·지배구조(ESG) 경영처럼 당장 성과가 나지 않더라도 인간의 존엄성 등 비재무적 요소도 함께 고려해야 기업이 ‘신뢰’를 얻을 수 있다는 시사점을 준다고도 덧붙였다.

외신들도 올트먼이 자사 기술의 위험성에 대해 충분한 주의를 기울이지 않아 오픈AI 내부에서도 점점 더 우려하는 목소리가 있었다고 보도했다.

특히 오픈AI 공동 창립자인 일리야 수츠케버 수석과학자를 주축으로 한 이사진과 올트먼이 AI 안전성, 기술 개발 속도 등을 놓고 의견 충돌이 있었던 것으로 알려졌다.

수츠케버는 “AI를 통제할 수 있다고 여길 때까지 AI를 확장하지 말아야 한다”는 제프리 힌턴 토론토대 교수의 제자로 지난 7월 회사 내에 AI 위험성 통제를 위한 내부 팀도 새로 만들었다고 한다.

AI 스타트업 업스테이지의 김근교 이사는 “안전성을 중요하게 생각하는 쪽과 사업적으로 속도를 내야 한다는 쪽의 갈등이 표면화된 게 아니냐는 외신 보도가 있지만 정작 이 사태로 어떤 변화가 일어날지 아무것도 결정되지 않았다”면서 “어떻게 결론이 나느냐가 중요한 만큼 계속 지켜보는 수밖에 없다”고 말했다.

이 사태를 예의주시하는 정보기술(IT) 업계에선 비영리 조직으로 설립된 오픈AI가 영리 기업으로 전환하고 챗GPT로 성공을 거두고 몸집을 키우면서 정체성에 혼란을 일으켰다고 보는 시각도 있다.

구글처럼 처음부터 수많은 이용자를 대상으로 한 AI 서비스를 내놓기 위해 개발에 나섰다면 AI의 위험성을 고려해 속도 조절을 할 수밖에 없지만 오픈AI는 ‘사업’보다는 ‘연구’에 방점이 찍혀 있는 조직이다 보니 실험적인 행위를 할 수 있었다는 지적이다. 오픈AI는 애초 인간의 명령이나 도움 없이 스스로 사고하고 학습하는 범용AI(AGI)가 인류 전체에 혜택을 줄 수 있도록 노력하는 비영리 조직으로 출발했다.

AI 서비스를 하고 있는 네이버의 경우 비윤리적인 답변이나 저작권 침해를 막기 위해 개발 과정에 ‘레드팀’과 같은 절차를 두고 있고, AI 윤리 관련 연구 논문을 전 세계 기업과 연구기관에 공개해 AI 윤리 생태계를 조성하고 있다.

지난해 AI 윤리 원칙을 발표한 LG전자는 주기적으로 협의체를 운영하면서 AI 위험성에 대한 점검을 하고 있다.

업계 관계자는 “현 상황은 오픈AI에 새로운 도전”이라면서 “오픈AI가 AI의 안전성에 대해 고려하는 계기가 될 수 있을 것으로 본다”고 내다봤다.

김헌주·강윤혁 기자

Copyright © 서울신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?