최근 테슬라의 FSD가 사실상 ‘운전 중 휴대폰 사용도 가능한 시스템’처럼 오해될 수 있다는 논란이 커지고 있다. 기술은 진화하지만 운전 책임은 여전히 인간에게 남아 있다는 점에서, FSD의 실제 한계와 안전성 논쟁이 다시 뜨거워지고 있다.
‘운전 중 문자 가능’ 발언이 불러온 파장

테슬라의 최신 FSD 업데이트와 관련해 “운전 중 문자 입력도 문제없다”는 식의 발언이 등장하면서 논쟁이 걷잡을 수 없이 확산됐다. 많은 이용자들이 이미 FSD를 ‘반쯤 완성된 자율주행’ 정도로 인식하고 있던 상황에서, 이런 표현은 시스템의 성격을 완전히 잘못 이해하게 만들 위험이 있다는 점에서 비판이 거세다.
특히 북미권은 주·연방법 모두 운전 중 휴대폰 사용 금지 규정이 매우 강력하다. 즉, 설령 차량이 대부분의 조작을 대신하더라도 법적 책임은 오롯이 사람의 몫이다. 그럼에도 “문자를 보내도 된다”는 뉘앙스는 신호·보행자·급정거 같은 위험 요소를 간과하게 만들 수 있어 규제 기관까지 즉각 반응했다.
‘주의 환기 시스템’ 약화 논란… 실제 사용자 경험은?

최근 일부 테슬라 이용자들 사이에서는 경고 빈도가 줄었다, 손을 거의 올려두지 않아도 주행이 이어졌다는 경험담이 공유되고 있다. 이전에는 시선이 잠시만 벗어나도 화면과 스티어링에서 즉각적인 경고가 발생했지만, 업데이트 이후 경고 간격이 늘었다는 제보가 반복된 것.
전문가들은 이런 변화가 단순한 개선이라기보다 감시 시스템을 의도적으로 느슨하게 만든 게 아니냐는 의문을 제기한다. 일각에서는 “기술이 좋아진 게 아니라 안전 장치가 후퇴한 것”이라는 평가까지 나온다. 이는 사용자에게 ‘차량이 알아서 다 한다’는 착각을 심어줄 가능성이 있으며, 이 지점이 바로 사고 위험을 키우는 핵심이라는 분석이 많다.
테슬라 FSD의 실제 성능… 이름과 달리 ‘완전자율주행’은 아니다

많은 소비자들이 ‘Full Self Driving’이라는 이름 때문에 완전자율주행을 떠올리지만, 현행 FSD는 여전히 레벨2 운전자 보조 시스템이다. 즉, 차선 유지·속도 조절·차로 변경·교차로 대응 등 여러 기능을 제공하지만, 차량의 판단이 항상 옳다고 볼 수 없으며 운전자가 감독자 역할을 반드시 수행해야 한다.
지원 차종도 한정적이다. 모델 3, Y, S, X, 사이버트럭 등 최신 하드웨어 기반의 차량에서만 활성화되며, 각 차량의 기능 세부 지원 여부는 디스플레이 메뉴에서 직접 확인해야 한다. FSD는 장거리 이동이나 도시 구간에서 분명 편리함을 제공하지만, 사람을 완전히 대체하는 운전자는 아니다. 이 간극을 이해하지 못하면 사용자 스스로 위험 상황을 키울 수 있다.
FSD 과신으로 발생한 사고들… 규제 강화 움직임

테슬라 자율주행 기능을 과신하거나 손을 떼고 주행한 사례는 이미 여러 사고로 이어졌다. 일부는 연방 조사로 확대되었고, 로보택시 충돌 사례까지 더해지며 규제 기관은 더욱 엄격한 감독 체계를 검토하고 있다.
특히 문제로 지적되는 것은 운전자가 시스템의 한계를 오해하기 쉬운 명칭, 안전 장치의 경고 방식 변화, 사용자의 과도한 신뢰로 인한 부주의 증가이다. 그 결과, 다른 완성차 업체들은 테슬라의 기술을 라이선스 형태로 도입하는 데도 매우 신중하다. 기술적 성능의 문제가 아니라 규제 리스크와 소비자 오해 가능성 때문이라는 점이 강조된다.
법적 책임은 100% 사람… 기술이 발전해도 바뀌지 않는 원칙

현재 국제 규정과 자율주행 법체계에서 레벨2 시스템의 모든 책임은 운전자 본인에게 귀속된다. 따라서 문자 입력처럼 시야를 완전히 빼앗기는 행동은 법적으로도, 안전적으로도 절대 허용될 수 없다. 일부 사용자는 “차가 알아서 잘 가는데 왜 안 되냐”고 반문하지만, 이는 기술의 목적과 구조를 완전히 오해한 것과 같다.
FSD는 운전을 보조하는 도구이며, 운전자가 시선을 떼고도 안전을 확보해 주는 장치는 아니다. 결국 기술이 더 정교해지는 와중에도, 현 단계에서는 사람이 끊임없이 감시해야 한다는 절대 원칙은 변하지 않는다.
자율주행의 미래는? 사용자 의식이 핵심 변수

테슬라뿐만 아니라 자동차 업계 전체는 완전자율주행 시대를 향해 빠르게 나아가고 있다. 하지만 실제 도로 환경은 복잡하고, 예측 불가능한 변수가 너무 많다. AI가 모든 상황을 완벽하게 해석하고 판단하기 위해서는 여전히 많은 시간이 필요하다.
따라서 지금 필요한 것은 기술 과신을 피하는 사용자 교육, 명확한 규제 가이드라인, 제조사의 정확한 설명과 투명성이다. 완전자율주행으로 넘어가는 전환 과정에서 어느 한쪽이라도 무너지면 안전 사각지대가 반드시 생긴다. 테슬라 FSD 논란은 그 위험성을 다시 한 번 보여주는 사례라고 할 수 있다.
Copyright © EXTREME RACING 저작권법에 따라 허락 없이 무단 복제, 배포, 전재를 금지합니다.