Автопилот Tesla находится под огнем. Снова . На этот раз, вместо нескольких журналистов, рассказывающих истории из-за клавиатуры (привет), все намного серьезнее. Национальное управление безопасности дорожного движения (NHTSA) начало официальное расследование в отношении проприетарного программного обеспечения адаптивного круиз-контроля Tesla. К сожалению, это происходит после серии аварий, некоторые из них со смертельным исходом. Мы слышали об этих историях раньше, и, надо признать, я рассказал о нескольких из них. Но теперь у Теслы серьезные проблемы с федералами.
Итак, что именно навело федералов на Tesla Autopilot? К сожалению, произошла серия аварий, а точнее 11, в которых, по словам NHSTA, участвовали Tesla и службы экстренного реагирования, когда автопилот Tesla был активен. Очевидно, NHSTA не одобряет столкновение сотрудников экстренных служб с автомобилями, которые «самоуправляются», пока это не станет юридически удобным. Я говорю это потому, что Tesla имеет опыт перекладывания ответственности за свое компьютерное программное обеспечение на владельцев, когда им это удобно.
Такое поведение привлекло внимание НАБДД, сообщает Associated Press. К сожалению, расследование охватывает весь модельный ряд Tesla, около 765 000 автомобилей. Не так S3XY. Однако важно отметить, что Тесла и, соответственно, Илон невиновны, пока их вина не будет доказана. Расследование продолжается, но Национальный совет по безопасности на транспорте (NTSB) рекомендовал NHTSA потребовать от Tesla ограничить области, в которых может использоваться автопилот Tesla.
Согласно AP, NTSB уже стрелял в Tesla, обвиняя компанию во многих других авариях. Однако я должен отметить, что здесь виноват не только автопилот Tesla. Люди не очень ответственно относятся к полуавтономному программному обеспечению. Они делали все, от сна до вождения в нетрезвом виде на своих Tesla. Однако в большинстве случаев эти люди наказываются. Национальное управление безопасности дорожного движения США (NHTSA) сейчас пытается определить, разделяет ли Тесла вину и в этом.
В некотором смысле, они должны. Вокруг моделей Tesla сложилась культура, которая стала довольно разрушительной. От r/tesla на Reddit до ленты Маска в Твиттере, автомобили позиционируются как нечто не похожее на iRobot или Bladerunner, хотя на самом деле они таковыми не являются. Полное автономное вождение Tesla нет полное самостоятельное вождение. В лучшем случае это бета. Откровенно говоря, люди недостаточно ответственны за беспилотные автомобили. Именно это, похоже, послужило толчком к расследованию НАБДД.
Итак, совершенно очевидно, что у Теслы сейчас проблемы с имиджем. Мне сложно представить себе другого автопроизводителя, чей имидж был так омрачен публичными спорами после выпуска Dieselgate. Честно говоря, Tesla должна начать с некоторой прозрачности. Изменение некоторых имен было бы хорошим началом. «Автопилот Tesla» несколько вводит в заблуждение. Программное обеспечение адаптивного круиз-контроля GM «SuperCruise» не связано с самостоятельным вождением, в отличие от «Автопилота». Это было бы началом, чтобы быть уверенным, но нам нужно посмотреть, что говорит NHSTA о любых реальных изменениях.
Тюнинг Audi:производительность и обновления программного обеспечения
Автомобильная инфографика | Взлом автомобилей
Автомобили Tesla могут быть отозваны, если автопилот продолжит вызывать аварии
Автопилот Tesla — не единственная функция помощи водителю, для которой не нужен водитель
Автопилот Tesla не виноват после того, как Model S пролетела через дом во Флориде