6


Очередное испытание системы автопилотирования Tesla поставило под сомнение её способность функционировать в условиях реального трафика. В Остине (Техас) Model Y с включённым режимом Full Self-Driving (FSD) не распознал мигающие сигналы школьного автобуса и восемь раз подряд сбил манекены, изображающие детей. Тест проводили три общественные инициативы – The Dawn Project, Tesla Takedown и ResistAustin. Видео с результатами быстро распространилось в соцсетях.
Важный нюанс: Tesla официально заявляет, что Full Self-Driving (Supervised) требует постоянного внимания водителя. Пользовательское соглашение предупреждает о рисках травм, гибели и материального ущерба в случае игнорирования сигнальных уведомлений. Но критики указывают, что если система требует постоянного контроля, её уже нельзя считать автопилотом.
Особую роль в обсуждении играет фигура Дэна О’Дауда – предпринимателя и главы The Dawn Project. Его проект уже не первый год добивается запрета на эксплуатацию FSD в общественном пространстве, утверждая, что система не справляется с простейшими задачами, от торможения у школьных автобусов до реакции на пешеходов. Он также представляет компанию, разрабатывающую альтернативное ПО для автономного управления, что придаёт критике коммерческий оттенок. Тем не менее, факты указывают на то, что в 2024 году в Вашингтоне электромобиль Tesla с активным FSD стал участником аварии, в которой погиб мотоциклист.
На фоне этого сохраняется напряжённое ожидание презентации Cybercab – беспилотного такси от Tesla. Сначала Илон Маск обещал показать машину 22 июня, но позже дал понять, что релиз могут отложить. В одном из постов в X он упомянул о "предельной осторожности" команды разработчиков. Одновременно прозвучало более амбициозное заявление: к 28 июня якобы выйдет первая Tesla, способная самостоятельно преодолеть путь от сборочного завода до дома покупателя.
via