Công nghệ Lái tự động và Lái hoàn toàn tự động của Tesla đã liên quan đến hàng trăm vụ tai nạn và hàng chục trường hợp tử vong
NHTSA phát hiện Autopilot và FSD của Tesla liên quan đến hàng trăm vụ tai nạn và hàng chục cái chết.
Cuộc điều tra của NHTSA về Autopilot và Full Self-Driving (FSD) của Tesla tiết lộ một xu hướng lo ngại trong cách người lái tham gia vào quản lý xe khi các hệ thống này đang được kích hoạt. Cụ thể, từ tháng 1/2018 đến tháng 8/2023, tổng cộng 956 vụ tai nạn đã được điều tra, cho thấy rằng các vụ tai nạn thường xảy ra do sự thiếu tập trung của người lái và việc không giữ gìn sự chú ý đến nhiệm vụ lái xe. Trong số đó, 29 người đã thiệt mạng và hàng trăm người bị thương, đặc biệt trong các trường hợp xe Tesla đâm trực diện vào các xe cộ hoặc vật cản phía trước.
NHTSA cũng đặc biệt chỉ trích tên gọi “Autopilot” và “Full Self-Driving” của Tesla, cho rằng chúng có thể dễ dàng gây hiểu nhầm rằng hệ thống có thể hoạt động mà không cần sự kích hoạt hoặc giám sát từ người lái. Tình trạng sử dụng công nghệ một cách quá tự tin mà không đủ sự giám sát đã dẫn đến nhiều vụ tai nạn, thậm chí là tử vong. Cơ quan này khẳng định rằng Tesla cần phải cải thiện hệ thống nhằm đảm bảo người lái luôn duy trì sự tập trung vào việc lái xe.
Kết luận của NHTSA không chỉ xoay quanh những vấn đề về an toàn mà còn cả về sự thiếu minh bạch từ phía Tesla trong việc chia sẻ dữ liệu tai nạn, khiến cơ quan này khó có thể hiểu rõ hơn về tính năng và hạn chế của các hệ thống tự động. California đang điều tra Tesla về việc tiếp thị sản phẩm có thể gây hiểu nhầm và Tesla đã thực hiện một cuộc gọi lại tự nguyện để cập nhật phần mềm, nhưng NHTSA cho rằng việc này không đủ để tránh lạm dụng công nghệ. Cuộc điều tra mới nhất của NHTSA vào cuộc gọi lại này hứa hẹn sẽ tiếp tục làm sâu sắc thêm cuộc tranh luận về an toàn của xe tự lái.