Tesla поправит автопилот, потому что людям нельзя доверять

В то время как Tesla и многие другие компании пытаются разработать полностью автономный транспорт, консерваторы уверены, что доверять всю работу компьютерам нельзя. Это чревато не только «восстанием машин», но и деградацией людей.

Недавно ученые из Массачусетского технологического института (США) частично подтвердили реальность опасений староверов. На протяжении нескольких лет они следили за движениями глаз водителей автомобилей Tesla с активным и выключенным автопилотом.

Оказалось, что многие из них действительно слишком сильно доверяют системе автоматического вождения, что плохо сказывается на их внимательности. Они то и дело смотрят на огромный дисплей внутри автомобиля и оглядываются по сторонам.

А это очень опасно — в любой момент автопилот может допустить ошибку и стать причиной гибели водителя, пассажиров и других участников движения. Люди до сих пор не хотят понимать, что автопилот Tesla является не полноценной заменой водителя, а всего лишь его помощником.

tesla поправит автопилот, потому что людям нельзя доверять

Водители излишне доверяют автопилоту Tesla И это большая проблема

Для чего нужен автопилот Tesla?

Об опасности автопилота Tesla было рассказано в научном журнале Science Alert. В ходе научной работы исследователи изучили данные, собранные с 2016 года — за это время добровольцы проехали 800 000 километров пути. В частности, в распоряжении ученых оказались видео из салона автомобилей Tesla.

Им удалось найти 290 случаев включения и выключения автопилота, чтобы сравнить поведение водителей при каждом из условий. Оказалось, что люди излишне доверяют системе, которая способна перестраиваться между полосами, парковаться и выполнять другие действия.

Но они не отдают себе отчета в том, что автопилот Tesla — это всего лишь вспомогательный инструмент, а не личный «компьютерный водитель».

tesla поправит автопилот, потому что людям нельзя доверять

Люди до сих пор не понимают, что автопилот Tesla — это не игрушка

Tesla выпустит автомобиль без руля и педалей за 1,8 миллиона рублей

Автопилот делает водителей невнимательными

В ходе изучения видео ученые узнали, что при включенном автопилоте владельцы Tesla смотрят куда угодно, только не на дорогу. Чаще всего водители опускают глаза вниз или смотрят на расположенный в центре салона дисплей. В 22% случаев их взгляд задерживается в этой точке более чем на 2 секунды.

Считается, что такого отвлечения достаточно для того, чтобы пропустить ошибку автопилота и не суметь взять управление на себя. Самое страшное, что некоторые люди ведут себя так же невнимательно даже после выключения автопилота. В теории, иногда водители могут забыть о выключенном автопилоте и необходимости управлять автомобилем вручную.

Это может привести к ужасным автокатастрофам.

tesla поправит автопилот, потому что людям нельзя доверять

Владельцы Tesla часто отвлекаются на дисплей в салоне

Авторы научной работы ни в коем случае не хотели навредить репутации компании Tesla. Они просто в очередной раз напомнили о важности сохранять внимательность при вождении даже таких навороченных автомобилей, как Tesla.

На данный момент список возможностей фирменного автопилота довольно внушителен и включает в себя удерживание автомобиля на определенной полосе, смену полос движения, разгон, торможение, парковка и так далее. Установленные в салоне камеры постоянно следят за тем, чтобы руки водителя находились на рулевом колесе.

Но некоторые водители находят способы обмануть систему защиты — например, можно засунуть в руль увесистый апельсин, а перед камерами повесить фотографию.

tesla поправит автопилот, потому что людям нельзя доверять

Чтобы обмануть автопилот Tesl, достаточно повесить на руль груз

О способах обмана автомобилей Tesla я уже рассказывал в этом материале. В апреле 2021 года в американском штате Техас произошла ужасная авария, в результате которого погибли двое мужчин. В ходе расследования было выяснено, что ни один из них не находился за рулем — они полностью доверились автопилоту Tesla.

При этом Илон Маск уверяет, что автомобиль с автопилотом имеет в 10 раз меньше шансов попасть в аварию, по сравнению с обычным транспортом. И он наверняка прав — система автоматического вождения действительно облегчает жизнь водителей.

Для этого просто нужно оставаться вовлеченным в процесс вождения и за всем тщательно следить.

tesla поправит автопилот, потому что людям нельзя доверять

  • Видео с демонстрацией автопилота Tesla. Обратите внимание, что водитель на официальном видео не держится за руль
  • Если хотите обсудить новости высоких технологий, вступайте в наш Telegram-чат. Будем вам рады!

    Автономный транспорт будущего

    Исследователи из Массачусетского университета не единственные, кто доказал плохое влияние автопилота на внимание водителей. В 2018 году на конференции Web Summit глава компании Waymo Джон Крафчик (John Krafcik) тоже рассказал о том, что люди излишне доверяют автопилоту.

    Причем ими являются работники компании, которые должны следить за правильной работой системы автоматического вождения — это их главная задача. Поэтому компания Waymo хочет довести свой автопилот до совершенства и не давать людям возможности брать управление на себя, потому что от этого нет особого толка.

    Подробнее о том, почему Waymo отказалась от ручного управления, мы рассказывали в этом материале.

    Автопилот Tesla спас жизни восьми людей: история на которую отреагировал даже Илон Маск

    Генеральный директор Tesla Илон Маск ответил на твит от Китти Макконнелл, которая находилась в одном из автомобилей Model X, попавшем в аварию. Эта история вызывает не только слезы радости, но и дрожь по всему телу ввиду случайных совпадений и счастливого случая, рассказывает Joinfo.com.

    Что случилось на трассе Великобритании во время шторма Деннис?

    Самым загадочным образом в противоположных направлениях по одной и той же трассе передвигались две машины, и обе они Tesla Model X. Бушевал сильный шторм, срывая на своем пути абсолютно все, от рекламных стэндов до деревьев.

    tesla поправит автопилот, потому что людям нельзя доверять

    400-летний дуб, выросший прямо на обочине той самой трассы, не выдержал мощнейшего порыва ветра, и в момент, когда обе машины с двух сторон подъезжали к нему, он упал. Важно отметить, что обе Теслы находились во власти управления автопилота, что и послужило счастливым исходом событий.

    tesla поправит автопилот, потому что людям нельзя доверять

    Жизни восьми людей, по четыре человека в каждом из электромобилей, могли оборваться, если бы оба водителя не приняли решение ранее доверить управление электронике. Дело в том, что автопилот среагировал на приближающуюся катастрофу настолько мгновенно, что упавшее дерево раздавило капоты обеих машин, но ни один человек не пострадал.

    Неужели вообще в такое можно поверить? Но это действительно реальная история, и люди, чьи жизни висели на волоске от смерти, безмерно благодарны Илону Маск за его безупречную работу, за его ответственный подход к каждой детали, за то, что он разработал и создал технику, способную не только качественно и комфортно перевозить людей, но и спасать им жизни.

    tesla поправит автопилот, потому что людям нельзя доверять

    Реакция Илона Маска

    При этом, позже оба водителя поделились фотографиями, отметив, что если бы они собственноручно управляли автомобилем, шансы на выживание были бы равны нулю.

    Можно только представить, какое удовлетворение испытал Илон Маск, узнав об этой истории, которую иначе, кроме как магической не назовешь. Он сразу же отреагировал на твит Китти Макконнелл, написав, что он рад, что все остались целы. «Эй, @elonmusk, твоя машина спасла мне жизнь … и парням … и маме … и семье из пяти человек. Спасибо».

    tesla поправит автопилот, потому что людям нельзя доверять tesla поправит автопилот, потому что людям нельзя доверять

    «Это говорит о том, что жизнь может закончиться за доли секунды, но благодаря Тесле, которая создает удивительные машины, на этот раз все обошлось», – рассказал один из водителей.

    Сильные, пережитые эмоции двух семей останутся в их памяти навсегда, а Илону Маску действительно есть чем гордиться. Эта невероятная история потрясла весь мир и заставила поверить людей в то, что чудеса в реальной жизни случаются.

    Mirrorpix

    Автопилот Tesla заметил фигуру человека на пустом кладбище: мистика или ошибка системы?

    Пользователь Ovidiu Maciuc опубликовал в Twitter видеоролик о странностях поведения его автомобиля Tesla.

    Мужчина приехал на кладбище, припарковался и вдруг увидел, что на экране бортового компьютера отображается присутствие человека в нескольких метрах от машины.

    Однако на самом деле там никого не было: все происходило днем, и на видеозаписи отчетливо видно совершенно пустое кладбище. Что это: мистика или ошибка системы – разбирался наш обозреватель Николай Гринько.

    tesla поправит автопилот, потому что людям нельзя доверять

    twitter.com/OMaciuc

    Таинственный силуэт на экране сначала подошел немного ближе, ненадолго остановился, затем двинулся в сторону от автомобиля и в конце концов исчез. Размещенный видеоролик вызвал всплеск пользовательского интереса: многие предположили, что радар Tesla способен отслеживать приведения. Ни представители компании, ни Илон Маск пока никак не прокомментировали видео.

    Все это можно отнести к разряду забавных новостей, если бы не одно обстоятельство: это происшествие еще раз наглядно демонстрирует несовершенство электроники, от которой в прямом смысле этого слова зависят здоровье и жизни людей.

    Системы автоматического управления автомобилями, даже такие продвинутые, как у Tesla, все еще удручающе несовершенны.

    В этом можно убедиться, поискав в сети видео по запросу “Tesla fail”: можно найти немало роликов о странном поведении автопилота.

    tesla поправит автопилот, потому что людям нельзя доверять

    В них автомобиль паркуется под неожиданными углами, перестраивается в занятую полосу, входит в повороты по безумным траекториям и даже выруливает на встречку. А уж сообщения о серьезных авариях с печальными последствиями быстро подхватываются и распространяются новостными порталами, их публикуют даже те ресурсы, которые никогда не пишут ни об автомобилях, ни о компьютерных системах.

    Приходится признать: на сегодняшнем этапе развития полный отказ от управления автомобиля человеком невозможен.

    Читайте также:  Список публикаций (содержание) сайта avtozam.com

    tesla поправит автопилот, потому что людям нельзя доверять

    depositphotos/philipus

    И виноваты даже не ошибки в алгоритмах – каждую из них можно внимательно изучить и отладить программный код так, чтобы они не появлялись вновь. На самом деле проблема заключается в абсолютной непредсказуемости этих сбоев.

    Ну кто еще вчера мог бы подумать, что радар однажды увидит человека там, где его на самом деле нет? И хорошо, что это произошло в тот момент, когда автомобиль был припаркован.

    Представьте, что будет, если система на полном ходу вдруг решит, что видит пешехода посреди шоссе: неизбежен резкий маневр, внезапное торможение и почти наверняка серьезная авария.

    И все же отказываться от автопилота не стоит. Да, пока на него нельзя полностью полагаться, но рано или поздно системы отладят и досадные происшествия будут случаться все реже и реже.

    Вероятно, уже через пару-тройку десятков лет люди будут удивляться: неужели когда-то автомобилями управляли живые водители? Это ведь очень опасно! Автопилот же никогда не сядет за руль пьяным, не превысит скорость, не рванет через две сплошные, чтобы обогнать пробку…

    tesla поправит автопилот, потому что людям нельзя доверять

    Кстати, пробок в эпоху робомобилей не будет вообще! Не потому, что электроника умнее людей, а потому, что все машины будут связаны в единую сеть, это позволит им подстраивать маршрут и скорость, чтобы не возникало необходимости долго стоять на месте. И мы перестанем тратить топливо и нервы, сидя в неподвижных машинах на городских магистралях. Возможно, общая скорость потока при этом снизится, но это все равно намного лучше, чем ненавистные пробки. Хотя…

    Бывшие инженеры Tesla: видео с автопилотом – фейк и постановка

    В 2016 году компания Tesla опубликовала видео, в котором демонстрировалась работа технологии Autopilot 2.0. Несколько инженеров проекта, работавших в то время над ним, рассказали на условиях анонимности газете The New York Times о том, что ролик – типичная реклама, в которой не всё является правдой.

    tesla поправит автопилот, потому что людям нельзя доверять

    Блогеры проверили тормоза Tesla. Результаты оказались удручающими

    Так, например, маршрут, по которому следовал автомобиль с включенной функцией автономного вождения, был спланирован: создана трёхмерная карта, по которой и двигалась Tesla. Несмотря на это, по свидетельству трёх человек, работавших над видео, машине не удалось избежать столкновений: она врезалась в придорожный барьер, после чего потребовался ремонт.

    Кадры, разумеется, не вошли в финальную версию ролика, который до сих пор находится в общем доступе и служит инструментом популяризации технологий Tesla. Конечно, с тех пор прошло пять лет и “автопилот” работает лучше, но по-прежнему не может избегать аварийных ситуаций на 100%.

    Инженеры критикуют Илона Маска, который решил отказаться от лидара, сделав основным органом зрения автомобиля камеры, сославшись на то, что люди обходятся глазами.

    “Камеры – это не глаза! Пиксели – это не ганглионарные клетки сетчатки! Компьютер Full-Self Driving совсем не похож на кору головного мозга, отвечающего за зрительную составляющую!” – сказала на это Шайлер Каллен, бывший руководитель команды автономного вождения Samsung.

    “Один из основных сенсоров беспилотного автомобиля – лидар. Он каждую секунду испускает миллионы безопасных для людей лазерных лучей, которые отражаются от объектов и возвращаются обратно.

    Получается лидарное облако – совокупность точек, которые создают трёхмерную картину окружающего мира.

    По отражённым сигналам лидара можно определить форму объектов и расстояние до них с точностью до сантиметра, – объясняют назначение лидара в “Яндексе”, занимающегося созданием беспилотных технологий.

    – Лидар может определять точные очертания объектов на расстоянии в сотни метров – эту информацию не получить с камер и радаров. Ещё лидар “видит” в темноте, а благодаря алгоритмам фильтрации шумов автомобили могут уверенно ориентироваться в пространстве даже в сложных погодных условиях вроде снега или дождя.

    tesla поправит автопилот, потому что людям нельзя доверять

    Россияне скупают китайские авто из-за жадности дилеров других марок

    • Также лидар помогает беспилотному автомобилю понимать своё положение в пространстве – для этого система в реальном времени сравнивает трёхмерный скан окружения с загруженными в систему трёхмерными картами”.
    • Амнон Шашуа, генеральный директор Mobileye, говорит, что конечная цель Tesla – построить бизнес, и это обстоятельство иногда заставляет игнорировать факты.
    • В The New York Times сообщили, что в течение нескольких недель ждали ответы на вопросы, касающиеся постановочного видео с работой автопилота, от Илона Маска и его представителей, но так и не получили их.

    Реальный тест автопилота Теслы

    На пикабу в последнее время активировались посты про якобы успехи компании Маска в автопилоте и роботакси (Сравнение автопилотов Tesla и Waymo в реальных условиях. Всё изначально пошло не по плану).

    Как обычно в подобных рекламных видео, записан коротенький ролик в простых условиях почти на пустой дороге. Причина этому простая – Full Self Driving (FSD) теслы неработоспособен и опасен, и не достигнет автономии уровня Waymo еще в лучшем случае лет 5.

    Давно собирался выложить видео с реальным положением дел, благо примеров в интернете предостаточно.

    Ниже приведено более репрезентативное видео поездки по городу со свежей бета-версией автопилота.

    Пробы ставить практически негде, ниже приведены таймкоды фейлов с описаниями, которые система успела совершить за короткое видео.

    Отдельные фрагменты видео ускорены, судя по показаниям планшета, общее время поездки – около получаса. Символом (x) после таймкодов обозначено отключение FSD водителем или системой.

    Также водитель может “помочь” FSD, нажав на go-педаль в случае если авто встало. Такие случаи отмечены как (go)

    0:42 (x) Левый поворот из положения “между полосами”. Водитель перестроил в нужную полосу.

    • 1:15 (x) Судя по описанию водителя – попытка перестроиться вправо на пешеходном переходе с пешеходами.
    • 1:47 (х) Перестроение через сплошные линии.
    • 2:05 (х) FSD отключился сам на повороте.

    2:15, 3:13 Ничего особенного на общем фоне. Остановка после левого поворота без причины и паника по поводу авто в соседнем ряду.

    3:48 Ожидание полного отсутствия авто в зоне видимости для поворота налево. Можно было бы списать на консервативность, если бы не опасное поведение дальше по видео.

    4:23 Водитель жалуется на поворот направо по широкой дуге с заездом на не свою полосу. Ок на общем фоне, ИМХО.

    5:02 Объезжает велосипедистов так широко, что практически цепляет встречный автомобиль.

    5:37 (go) Остановка посреди перекрестка без причины. Включение поворотников при продолжении прямого движения.

    6:08 Опасный левый поворот на нерегулируемом перекрестке. Маневр совершался так медленно, что авто слева притормозило, чтобы избежать боковое столкновение.

    6:46 (х) FSD отключился сам на повороте. Интересный пример ограниченности камер без LIDAR при отсутствии четкой видимости (несколько стволов деревьев)

    7:09 (x) В Штатах можно поворачивать направо на красный после полной остановки. Если не висит знак No Turn on Red. Знак висел, система его не распознала и попыталась повернуть с нарушением.

    7:26 (x) Сигнал “Take Over Immediately” с остановкой. Причина не ясна.

    8:09 (x) Перестроение в полосу для поворота налево тогда как нужно двигаться прямо (еще и поворотники зачем-то были включены). После проезда перекрестка, авто просто встало за припаркованными слева авто.

    8:41 Объезд припаркованного фургона. Все хорошо.

    9:39 (x) Водитель увернулся от наезда колесом на бордюр при повороте.

    10:04 (go) Неуверенное управление.

    10:39 (х) !! выезд на встречку. Довольно показательный момент ограниченности FSD без использования карт. FSD отключился, сигнал я не услышал.

    1. 10:49 (х) Ожидаем, когда прикаркованное на аварийке авто поедет.
    2. 11:13 (go) Ожидание на перекрестке при наличии приоритета.
    3. 11:36 (go) Остановка на нерегулируемом перекрестке при отсутствии знака STOP

    11:59 !! Опасный проезд, близкий к столновению справа.

    12:20 (x) !! Почти сразу же, уворот от столкновения.

    12:42 (x) Авто пыталось въехать в стену. Здесь не уверен, что реакция водителя не преждевременная, но с учетом того, что тесла пыталась дважды самоубиться несколько секунд назад, полностью его понимаю.

    C 2013 года Маск утверждает, что автономия и роботакси вот-вот будут готовы. (см. простыню цитат в конце). FSD на авто приобретается опционально за $10k и продается с 2016 года. При смене теслы на новую, FSD нужно покупать заново.

    Часто от любителей теслы можно услышать, что FSD безопаснее среднего таксиста и что проблема только в получении разрешений, но это не так.

    Во-первых потому, что средний таксист по городу водит несравнимо лучше, чем тесла на приведенном видео, во-вторых, потому, что никаких юридических препятствий для роботакси в штатах нет. В Калифорнии нужно просто предоставить данные и тесты в Дептранспорта (DMV).

    Для этого нужно посадить водителей в теслы и накатать нужное число миль на FSD, предоставив данные об отключениях системы.

    Между тем, усилия других компаний сосредоточены на построении систем с картами высокого разрешения и LiDAR. Такое решение видится наиболее жизнеспособным для автономии, несмотря на дороговизну (LiDARы дешевеют) и на изначальную ограниченность области применения, т.к.

    помимо простого зрения для вождения важен контекст локации и одной нейросетью не добиться снижения “угловых случаев” до приемлемого уровня не получится. Приемлемым можно считать один отказ системы на тысячи миль при обеспечении безопасности пассажира в случае отключения. На видео я насчитал 13 отказов за поездку и несколько опасных моментов.

    Читайте также:  Замена датчика холостого и заднего хода ваз 2109 инжектор и карбюратор: фото, где находится

    Даже при наличии удаленных операторов на случай отказа и снижении числа отказов в 100 раз, аварий будет много.

    Понятно, что это называется бета-версией, но разрабатывается она самое позднее с 2016го, а кривые обучения моделей машинного обучения имеют свойство быстро выходить на плато. Грубо говоря, если после 5 лет разработки отказов больше одного на среднюю поездку, то понизить количество отказов в 2 раза займет усилий сопоставимо затраченными, т.к.

    необходимо отслеживать уйму редких угловых случаев. Это подтверждается тем, что в корреспонденции с Дептранспортом Тесла признает FSD “помощником водителя” и “не ожидает значимых улучшений в системе, которые бы позволили снять водительский контроль” (пруф). DMV обязаны предоставлять корреспонденцию по закону FOIA, чем и воспользовались скептики.

    Это как-то уж очень сильно расходится с обещаниями “технокороля”.

    Что же у конкурентов? У Waymo в настоящий момент запущен сервис роботакси в аризоне и вовсю идет тестирование в Сан Франциско. GM Сruise также тестирует свое решение в Калифорнии.

    Количество миль на один отказ системы при тестировании настоящих компаний роботакси в Калифорнии представлено ниже (более детальные данные тут).

    Тесла таких данных не предоставляет, хотя возможностей нанять водителей у самой крупной в мире автокомпании по капитализации должно быть много.

    Официальная позиция Waymo по Tesla FSD:

    • – Можете ли Вы сказать, что Ваша технология на порядки более продвинутая чем у крикливого конкурента с вводящим в заблуждение маркетингом?
    • – Да
    • Обещанная простыня цитат Маска с обещаниями.

    Три серьезных проблемы автопилотов в Tesla, которые трудно решить

    Очередная авария электрокара доказывает, что полагаться на электронику водителям еще рано

    {“id”:370252}

    Автопилоту пока не стоит доверять свою жизнь autonews.ru

    Почти каждый год автомобили Tesla попадают в аварию из-за автопилота (или адаптивной системы круиз контроля). Сначала в 2016 году (столкновение с трактором), потом в 2017-м (удар об бетонный барьер), 2019-м (снова трактор) и теперь, совсем недавно, в 2021-м (столкновение с деревом).

    Это только самые известные аварии, всего специалисты насчитали 23 таких случая (с последним получается 24 как минимум). Почти во всех инцидентах водители незадолго до катастрофы не обращали никакого внимания на дорогу, уверенные в том, что автопилот справится с любой проблемой. Их можно понять – именно в этом их уверяли маркетологи Tesla, говоря, что их автопилот — лучший.

    Но вот несколько причин, почему доверять свою жизнь компьютерному помощнику пока рано.

    Современные автомобили снабжены различными датчиками, которые либо помогают водителю в разных дорожных ситуациях (припарковаться, избежать препятствия и так далее), либо служат «глазами» автопилоту. Стандартный комплект для Tesla — 8 камер, радар и 12 ультразвуковых датчиков.

    Камеры фиксируют дорожные знаки и распознают объекты (автомобиль, пешеход или, например, собака). Радары помогают камерам в распознавании, плюс рассчитывают расстояние до объекта.

    Ультразвуковые датчики могут разве что помочь при парковке – неточные и действуют на небольшое расстояние.

    Расположение датчиков в Tesla Habr.com

    Проблема в том, что все эти датчики по-своему несовершенны. Камеры зачастую легко обмануть, они плохо понимают расстояние до объекта, а считывание данных с них не происходит мгновенно. Плюс погода сильно ухудшает качество получаемой информации.

    Радары хоть и сильно быстрее передают данные, но гораздо хуже позволяют определять объекты (и только движущиеся, а не стационарные). Плюс их дальность зависит от угла обзора. Ультразвук… ну, тут и так все понятно.

    Если не паркуешься – почти бесполезен.

    Так вот, та же Tesla не обновляла свои датчики почти шесть лет. Вроде кто-то видел, что их автомобили разъезжали с LIDAR’ами (лазерными дальномерами), но это потом не подтвердилось. Да, лидары – крутое изобретение. Дают максимальный угол обзора, но катастрофически дороги и хрупки. Да и один и тот же участок дороги «видят» всего несколько раз в секунду.

    Вот и получается, что потребительский автопилот смотрит на мир подслеповатыми глазками.

    Компьютерный водитель преступно легко обманывается. В одном случае он в упор не видит грузовики. В другом – обычный проектор заставил автопилот выехать на встречку.

    «Машинное обучение и искусственный интеллект имеют определенные ограничения. Если датчики «видят» то, чего они никогда или редко видели раньше, они не знают, как справиться с этими ситуациями. Tesla не справляется с известными ограничениями искусственного интеллекта», — пояснил The Verge профессор электротехники и вычислительной техники в Университете Карнеги-Меллона Радж Раджкумар.

    Понимаю я это так. Припарковаться или двигаться по автостраде они могут относительно просто. А вот перестроиться, повернуть в плотном потоке, понять, когда пропустить вперед автомобиль, а когда нет – уже трудно. На дороге происходят сотни тысяч уникальных ситуаций, каждую из которых алгоритму нужно показать, а потом научить принимать решения. И вот с этим пока все плохо.

    Илон Маск, основатель Tesla, может сколько угодно уверять, что его автопилот – лучший в мире, отвергая предложения своих же инженеров разработать более совершенную систему мониторинга дорожных инцидентов.

    Но он в первую очередь бизнесмен, а значит не может позволить себе увеличить и так немаленькую стоимость оборудования. Тот же лидар стоит несколько десятков тысяч долларов.

    А что будет, если этот хрупкий датчик пострадает в каком-то незначительном ДТП? Это ж проще машину новую купить, чем его починить.

    Вот и приходится Маску делать хорошую мину при очень плохой игре, обвиняя в ДП самих водителей (они, мол, не должны так сильно полагаться на наш «лучший в мире автопилот», ага). И вроде с человеческой точки зрения было бы правильным отключить автопилот в Tesla совсем, но это все-таки репутационные потери, на которые Маск очевидно не пойдет.

    {“contentId”:370252,”count”:0,”isReposted”:false}

    {“id”:370252}

    Сенаторы США обвинили Tesla во вводящей в заблуждение рекламе автопилота

    Американские сенаторы-демократы Ричард Блюменталь и Эдвард Марки призвали Федеральную торговую комиссию США провести расследование в отношении компании Tesla, основанной Илоном Маском. Об этом сообщается на сайте Блюменталя.

    На фоне серии аварий с участием электромобилей Tesla сенаторы «озвучили серьезные опасения» из-за «вводящих в заблуждение рекламы и маркетинга», использованных компанией для продвижения функций Autopilot и Full-Self Driving. По их словам, Tesla «неоднократно преувеличивала возможности своих машин, и эти заявления представляют все большую угрозу для водителей и других пользующихся дорогами».

    «Сейчас на рынке нет полностью самоуправляемых автомобилей», — отметили сенаторы. Они указали на ограничения, которые есть у функций электрокаров Tesla. «Понимание этих ограничений необходимо, потому что, когда ожидания водителя превосходят возможности машины, это может закончиться и заканчивается серьезными и смертельными авариями», — говорится в сообщении.

    Tesla показала рекордную прибыль: о чем говорит инвесторам отчетность компании

    В качестве примера преувеличения возможностей машин Tesla сенаторы привели видео, выложенное компанией на YouTube в 2019 году и собравшее более 18 млн просмотров. На нем электрокар движется без каких-либо действий со стороны водителя.

    «Водители Tesla слушают эти утверждения и верят, что их машины оснащены достаточно, чтобы ехать самостоятельно», — говорится в сообщении. По словам сенаторов, это ведет к «потенциально смертельно опасным последствиям».

    Они подчеркнули, что с момента, когда Telsa представила функцию Autopilot в 2015 году, в авариях с участием машин с включенным автопилотом погибли как минимум 11 человек.

    Ранее расследование из-за аварий с участием электромобилей Tesla уже начал американский дорожный регулятор. Ведомство зафиксировало 11 случаев, когда машины Tesla врезались в другие автомобили в местах, где в то время работали экстренные службы.

     В результате этих инцидентов 17 человек пострадали, один погиб.

    Все попавшие в аварии электрокары Tesla ехали с использованием либо автопилота, либо функции Traffic Aware Cruise Control, адаптирующей скорость машины к скорости других участников движения.

    Магия Илона Маска: как Tesla за 10 лет превратилась из проблемного стартапа в компанию дороже Ford и GM

    На автопилоте. Tesla получила очередной удар по имиджу

    Практически все иностранные средства массовой информации опубликовали новость об аварии в Москве с участием Tesla. Она произошла 10 августа на МКАД, где Model S врезалась в стоявший перед ней эвакуатор.

    Зарубежные журналисты и эксперты воспользовались этим поводом для того, чтобы вспомнить предыдущие, гораздо более трагичные случаи, связанные со сбоями в работе систем автопилотирования электромобилей.

    И вновь задались вопросом: почему они происходят, а сама машина, столкнувшись с другим участником движения, при этом обязательно сгорает?

    Западный мир уверен в том, что в ближайшие десятилетия электрокары полностью вытеснят с рынка машины с двигателями внутреннего сгорания.

    А для того, чтобы ездить на них, человеку совершенно не обязательно будет садиться за руль – функция водителя ляжет на автопилот.

    Вероятно, так оно и произойдёт, но пока попытки приблизить будущее, совсем недавно казавшееся фантастикой, нередко заканчиваются трагедией.

    Одна из них, к счастью обошедшаяся без человеческих жертв, подняла затихшую было дискуссию о безопасности таких поездок.

    Тесла, которая двигалась по МКАД и находилась в режиме полуавтоматического управления (по словам владельца, была включена функция «ассистент водителя»), не смогла идентифицировать эвакуатор, частично стоявший на её полосе, и врезалась в него левым боком.

    В результате находившийся за рулём бизнесмен, получил перелом ноги, а двое его детей – незначительные ушибы. Сама же Model S вспыхнула, а затем взорвалась.

    Американский телеканал FOX Business напомнил, что это далеко не первый подобный эпизод. Например, в марте 50-летний мужчина на Model 3, которая двигалась по шоссе во Флориде со скоростью 110 километров в час, столкнулся с прицепом фуры.

    Читайте также:  Советы по увеличению клиренса на chevrolet lacetti и блокировке задней двери

    От удара у машины срезало крышу, а сам водитель погиб на месте. Национальный совет по безопасности на транспорте сообщил в своём докладе, что он включил автопилот за 10 секунд до аварии, а в момент удара его руки не прикасались к рулю.

    «Мы глубоко опечалены этой аварией… Водители Tesla преодолели более 1,5 миллиарда километров с включённым автопилотом. Наши данные показывают, что при правильном использовании внимательным водителем, который всегда готов взять управление в свои руки, машины с автопилотом безопаснее, чем без него», – прокомментировали мартовскую аварию в самой Tesla.

    Заявление о том, что водители должны оставлять руки на руле и следить за дорогой даже при включённом автопилоте, компания сделала ещё в 2018-м. Хотя ранее позиционировала автоматическую систему управления в качестве устройства, освобождающего человека от этой необходимости.

    Шаг назад был сделан после того как инженер Apple на Model X с включённым автопилотом врезался в Калифорнии в дорожное ограждение.

    Сам он погиб, электрокар, по традиции, сгорел, а семья покойного подала в суд на Tesla, поскольку сочла, что во всём виноват «конструктивный дефект автомобиля».

    Илон Маск в ответ на это заявил, что «водитель получил несколько визуальных и одно звуковое предупреждение, но его руки не были на руле в последние шесть секунд перед столкновением». По версии главы компании-производителя, причиной столь серьезной аварии стал разбитый во время предыдущего ДТП и не отремонтированный властями отбойник, а не автопилот.

    Несчастные случаи с участием электромобилей происходили и раньше. Например, в январе 2016 года 23-летний мужчина погиб, когда модель S, за рулем которой он ехал, столкнулась с грузовиком во время движения по шоссе в Китае.

    Видеозапись инцидента ясно даёт понять, что машина продолжает движение на значительной скорости, не замедляясь и не пытаясь маневрировать, несмотря на то, что стремительно приближается к грузовику, а затем врезается в него.

    Ряд порталов, в частности, Techcrunch.com и Electrek.

    co задались вопросом: почему Тесла после аварии регулярно загораются? Означает ли это серьёзную проблему или же «сенсационный характер подобных сообщений даёт ложное представление об опасности, которую представляют собой аккумуляторы электрокаров»? Журналисты предлагают не спешить с выводами до тех пор, пока не станет известно больше фактов и призывают не спекулировать на них.

    На видео: электромобиль Tesla Model S самопроизвольно загорелся на подземной парковке в Шанхае, Китай

    Они напоминают, что в последнем отчёте по безопасности Tesla сказано, что за период с 2012 по 2018 годы на каждые 170 миллионов миль, пройденных машинами этой компании, приходится одна авария с возгоранием. А вот общая статистика для всех транспортных средств гораздо более удручающая – один пожар на каждые 19 миллионов миль пробега по дорогам США.

    Впрочем, сторонние эксперты уверены, что возгорание – типичная проблема для электромобилей. Причём, речь идёт не только о продукции Tesla, но и других компаний. Это связано с тем, что в литий-ионных аккумуляторах в случае сильного удара или перегрева происходит короткое замыкание, вследствие которого и появляется огонь.

    Самый первый из множества других пожар в Tesla произошёл ещё в октябре 2013 года. Тогда Model S, которая двигалась по американскому хайвею, наехала на деталь от прицепа, лежавшую на дороге. Она пробила днище и повредила батарею. Правда, водитель был предупрежден бортовыми системами и успел покинуть машину, которая полностью выгорела буквально за несколько минут.

    Аналитики уверены в том, что эта проблема не исчезнет в краткосрочной перспективе, какие бы защитные меры не предпринимали производители. Нет сомнений и в том, что, несмотря на это, число «автомобилей будущего» на дорогах России и мира продолжит расти.

    Сегодня уже создана и успешно функционирует технологическая цепочка, начинающаяся с добычи лития, кобальта, ряда других металлов и завершающаяся выпуском электрокаров.

    Бизнесмены, которые её контролируют, продолжат прививать обществу постулат об экологичности своей продукции (что далеко не бесспорно).

    А ошибки автопилотов и мгновенно вспыхивающие батареи заносить в разряд исключений, которые лишь подтверждают надёжность и прогрессивность нового типа машин.

    Авто ~ Ошибка электроники: почему автопилоту Tesla пока нельзя доверять

    Ошибка электроники: почему автопилоту Tesla пока нельзя доверять

    Национальное управление безопасностью движения США открыло расследование после того, как один из водителей седана Tesla погиб за рулем автомобиля, который ехал в режиме автопилота, сообщает Reuters со ссылкой на заявление ведомства.

    В Tesla заявили, что это первый известный случай аварии с летальным исходом за все время использования автопилота на ее автомобилях. В компании пояснили, что ни водитель Tesla, ни автопилот не заметили белый прицеп фуры из-за яркого света, поэтому тормоз не применялся.

    Высокий дорожный просвет прицепа, его положение на трассе и “чрезвычайно необычные обстоятельства” ДТП привели к тому, что нижняя часть фуры столкнулась с передним стеклом Model S, отметили в Tesla.

    Печальный инцидент в очередной раз напомнил, что водитель пока не может полностью полагаться на электронику и всегда должен контролировать обстановку. Сама компания постоянно напоминает, что автопилот является вспомогательной функцией, а ответственность за управление автомобилем всегда лежит только на водителе.

    Автопилот спас машину от бокового столкновения с грузовиком, который внезапно начал менять полосу движения. Водитель грузовика начал перестраиваться через два ряда для съезда с автомагистрали и не увидел седан Testa.

    Автопилот отклонил машину вправо на резервную полосу, чтобы избежать аварии, притормозил и вернул машину на полосу движения после того, как грузовик оказался впереди.

    По описанию водителя Tesla, звуковой сигнал подал он сам, а после инцидента водитель грузовика жестами извинился за свой маневр.

    В этом видеоролике все шло хорошо до тех пор, пока на дороге была понятная для автопилота разметка.

    После того, как машина съехала с магистрали, с левой стороны исчезла двойная белая разметка, зато такая же появилась справа.

    Электроника, по-видимому, решила, что машина находится на встречной полосе, и попыталась резко перестроиться правее. Водитель, который контролировал обстановку, успел схватить руль и взять управление на себя.

    Автопилот не заметил аварийный фургон в левой полосе шоссе, и автомобиль врезался в него. Предупреждение о возможности столкновения сработало слишком поздно, а система автоматического торможения не сработала вовсе. Водитель попытался затормозить сам, но это было слишком поздно.

    Владелец отметил, что его Tesla в режиме автопилота многократно работал корректно, и он слегка потерял бдительность. В данном эпизоде он смотрел вправо, а не на дорогу, и не обратил внимание на то, что автопилот не тормозит, хотя обычно система начинала притормаживать, как только другой автомобиль только начинал заезжать на его полосу движения.

    На запрос владельца компания ответила, что все системы функционировали в штатном режиме.

    Эксперимент владельца Tesla показал, что машина в режиме автоматической парковки достаточно корректно распознает взрослых, детей и посторонние объекты. Исключение составляют объекты с небольшой массой.

    Так, седан не заметил плюшевую игрушечную утку, размер которой примерно соответствует размеру младенца. Однако автомобиль все-таки остановился, коснувшись игрушки.

    Эксперимент в очередной раз показал необходимость контроля за машиной в автоматических режимах.

    Осенью прошлого года сразу после обновления ПО члены российского Tesla-клуба провели эксперимент на улицах Москвы, в ходе которого седан успешно увернулся от подрезавшего его с правой стороны автомобиля такси. Кроме того, машина сама проехала по столичному ТТК в автоматическом режиме и совершила аварийное торможение, перед стоящими во втором ряду автомобилями.

    В феврале Tesla выпустила новую версию ПО для электромобилей Model S с обновленной функцией автопарковки Summon, благодаря которой электрокар может самостоятельно въезжать и выезжать из гаража.

    Пользоваться программой стало возможно с помощью часов Apple Watch и приложения Remote S, смартфона или кнопки на ключе. При использовании функции она способна также самостоятельно открывать и закрывать ворота гаража.

    В компании отметили, что функция автопарковки проходит стадию бета-тестирования.

    Tesla усовершенствует функцию автопилота в своих электрокарах

    Компания Tesla планирует в ближайшее время обновить программное обеспечение для своих автомобилей до версии 8.0, сообщает Electrek. Основные изменения ожидаются в части автопилота. Сейчас инженеры Tesla уже проводят бета-тестирование программы обновлений.

    На данный момент с помощью функции автопилота электрокары могут самостоятельно менять полосу движения при включенном сигнале поворота и парковаться параллельно другим транспортным средствам. После обновления система сможет автоматически съезжать с шоссе. Однако после того, как машина выедет на городские улицы, управление автомобилем должен взять на себя водитель.

    В США начали расследование гибели водителя Tesla при работающем автопилоте

    Национальное управление безопасностью движения на трассах США открыло расследование после того, как один из водителей Tesla погиб за рулем автомобиля, который ехал в режиме автопилота, сообщает Reuters со ссылкой на заявление ведомства.

    Инцидент произошел 7 мая в городе Уиллистон, штат Флорида, в нем погиб водитель Tesla Model S 2015 года. Авария произошла, когда грузовая фура свернула налево перед автомобилем на перекрестке. Предварительное расследование затрагивает 25 тыс. автомобилей Model S.

    Ссылка на основную публикацию
    Adblock
    detector