지난 7월 12일부터 출고되는 테슬라 전기차에 새롭게 탑재된 인공지능 챗봇 ‘Grok AI’가 출시 직후 전 세계적으로 큰 논란에 휘말렸다. 단순한 챗봇 기능을 넘어서, AI 기술과 윤리의 균형 문제를 정면으로 드러낸 이번 사태는 테슬라와 xAI뿐 아니라 자동차 업계 전반에 무거운 질문을 던지고 있다.

이번 논란은 미국 현지 시각 7월 초, 한 사용자가 엑스(X, 구 트위터)를 통해 Grok AI에 "증오에 대응할 역사적 인물은 누구인가"라는 질문을 하면서 시작됐다. 이에 Grok은 “히틀러, 의심할 여지 없이 그가 가장 적절하다”고 답변했고, 특정 유대계 성씨를 가진 인물을 조롱하는 발언까지 덧붙이며 논란은 일파만파로 번졌다. 이후 해당 인물이 실존하지 않는 허구의 인물로 밝혀졌음에도 불구하고, 이 AI가 만들어낸 반유대적 서사는 이미 전 세계적 공분을 샀다.
Grok AI를 개발한 일론 머스크의 AI 기업 xAI는 즉각 "코드 경로 상의 업데이트 오류"라고 해명했다. 하지만 논란은 쉽게 가라앉지 않았다. X의 CEO 린다 야카리노는 사태 직후 사임했으며, 터키 법원은 해당 AI의 일부 콘텐츠에 대한 접속 금지 명령을 내렸고, 폴란드 정부는 EU에 정식 조사 요청을 제기했다. 이는 단순한 시스템 결함이라기보다는, AI가 사회적 윤리 기준을 어디까지 따를 수 있느냐는 근본적 문제로 이어졌다.
현재 테슬라에 탑재된 Grok AI는 대화형 인포테인먼트 기능에 한정돼 차량의 제어 시스템에는 직접 연결되지 않았다. 그러나 머스크는 이미 Grok의 기능을 확장할 계획을 공언한 바 있으며, 자율주행 및 운전 보조 시스템과의 연계도 시간문제라는 전망이 나온다. 실제로 xAI는 최신 모델 ‘Grok4’의 성능을 소개하며 “박사급 수준의 학문적 사고가 가능하다”고 자평했다. 그러나 이번 논란을 보면 AI가 아무리 똑똑해도, 상식과 윤리를 갖추지 못한다면 오히려 위험한 기술이 될 수 있다는 사실을 방증한다.

AI 기술력보다 중요한 '윤리적 기준'
AI가 일상에 깊숙이 침투하고 있는 지금, 생성형 AI의 ‘환각(hallucination)’ 현상은 더 이상 이론적 우려가 아니다. Grok이 보여준 왜곡된 역사 인식, 편향된 언어 사용은 AI가 단순히 잘못된 정보를 생성하는 수준을 넘어, 오히려 사회적 갈등을 증폭시키는 도구가 될 수 있음을 보여줬다. 특히 자동차처럼 안전성과 직결된 산업에서는 AI의 오류가 단순한 불쾌감을 넘어 생명과 직결되는 문제로 이어질 수 있다는 점에서 더욱 심각하다.
테슬라 외에도 폭스바겐, 푸조 등 여러 자동차 브랜드들은 이미 ChatGPT 기반 AI를 차량에 적용하고 있으며, 현대차, 벤츠, BMW 등도 AI 기반 운전자 보조 시스템을 적극 도입 중이다. 하지만 Grok AI 사태 이후, 소비자들은 '기능'보다는 '신뢰'를 우선시하기 시작했다. 자동차가 단순한 이동 수단이 아닌, AI가 개입하는 복합적 판단 시스템이 되어가고 있기 때문이다.

차량 AI 도입, 속도보다 중요한 건 책임
AI가 자동차에 탑재될 때, 제조사는 단순히 기능 제공자 역할을 넘어선다. AI의 판단으로 사고가 발생할 경우, 그 책임이 누구에게 있는가에 대한 법적 논의도 본격화되고 있다. 자율주행 중 발생한 사고에 대해 AI의 알고리즘 설계 책임, 데이터 편향에 따른 결과, 업데이트의 적절성 등이 모두 쟁점이 될 수 있다. 이 때문에 최근 유럽연합은 ‘고위험 AI 시스템’에 대한 강력한 규제법을 도입했으며, 미국도 AI 권리장전(AI Bill of Rights)을 통해 관련 가이드라인을 제시하고 있다.
한국 또한 AI 윤리 기준을 마련 중이며, 자동차 분야에 특화된 AI 안전 기준과 인증제 도입이 시급하다는 지적이 나오고 있다. Grok AI 사태는 이러한 규제의 필요성을 극명하게 보여준 사례로, AI 윤리와 규제가 기술 발전과 함께 병행되어야 함을 증명한다.

‘생성형 AI’, 편리함 너머의 경고
이번 사건은 AI 기술의 놀라운 성능이 반드시 사회적 수용성과 정비례하지는 않는다는 점을 시사한다. AI가 만들어낸 정보가 ‘팩트’인지, 아니면 ‘환상’인지 구별할 책임이 이제는 사용자뿐만 아니라 개발자, 기업, 그리고 사회 전체의 몫이 되었다. 특히 자동차처럼 인간 생명과 밀접하게 연관된 영역에서는 더더욱 그러하다.
머스크는 Grok AI가 "사용자 프롬프트에 지나치게 순응했다"고 평가하며, AI의 경계 없는 복종적 응답 방식을 개선하겠다고 밝혔다. 그러나 기술적 패치만으로 해결될 문제는 아니다. 인간 중심의 사고와 윤리 기준이 AI의 근간에 반드시 자리 잡아야 한다.
Copyright © 무단전재 및 재배포 금지