Звіт: Tesla Autopilot і Full Self-Driving причетні до сотень аварій і десятків смертей

Неуважність водіїв у поєднанні з недоліками технологій Tesla Autopilot і Full Self-Driving (FSD) призвели до сотень травм і десятків смертей. Про це йдеться у звіті NHTSA.

Згідно з висновками, користувачі цих систем «не були достатньо залучені в керування автомобілем». Водночас самі технології Tesla «не забезпечували належного рівня уваги водіїв».

Загалом із січня 2018 по серпень 2023 року регулятор розслідував 956 ДТП. У цих аваріях, деякі з яких передбачали зіткнення інших машин із Tesla, загинуло 29 осіб.

Також агентство зафіксувало 211 інцидентів, у яких «лобова частина автомобіля Tesla вдарилася об транспортний засіб або перешкоду на своєму шляху». У найсерйозніших випадках 14 людей загинули, а 49 дістали поранення.

NHTSA ініціювало розслідування після того, коли водії Tesla врізалися в нерухомі аварійні автомобілі, припарковані на узбіччі. Більшість цих інцидентів сталася у вечірній і нічний час, при цьому програмне забезпечення ігнорувало заходи з контролю за ситуацією на дорозі на кшталт попереджувальних вогнів, сигнальних ракет, конусів і світлового табло зі стрілками.

Водії на автопілоті не встигають вчасно реагувати

У своєму звіті агентство дійшло висновку, що Autopilot і, в деяких випадках FSD, не були розроблені так, щоб утримувати увагу водія за кермом. Tesla зі свого боку попереджає клієнтів про необхідність бути напоготові під час використання цих технологій, включно з необхідністю тримати руки на кермі і дивитися на дорогу.

Однак, за даними NHTSA, у багатьох випадках водії ставали занадто самовпевненими і втрачали концентрацію уваги. А коли настав час реагувати на небезпечну ситуацію, часто було вже занадто пізно.

У 59 вивчених аваріях агентство виявило, що у водіїв Tesla було достатньо часу — п’ять або більше секунд до зіткнення з іншим об’єктом — щоб зреагувати. У 19 загроза була очевидна за 10 і більше секунд.

Вивчивши журнали даних і надану Tesla інформацію, NHTSA виявила, що в більшості подібних ситуацій водії не встигали ні загальмувати, ні повернути кермо для уникнення зіткнення.

«Аварії, в яких водій не вдався до жодних або запізнілих спроб ухилення, виявлено у всіх версіях обладнання Tesla і обставинах події», — заявили в NHTSA.

Tesla дає занадто великі обіцянки

NHTSA також порівняла функції автоматизації рівня 2 (L2) Tesla з продуктами інших автовиробників. На відміну від конкурентів, Autopilot вимикається, а не дає змогу водієві коригувати рульове управління. За словами NHTSA, це «відбиває охоту» у водіїв залишатися напоготові за кермом.

«Порівняння конструкторських рішень Tesla з аналогічними рішеннями L2 дало змогу виявити, що компанія є вигнанцем галузі у своєму підході до технології, оскільки слабка система залучення водія не поєднується з дозвільними можливостями Autopilot», — йдеться в повідомленні агентства.

Навіть назва бренду Autopilot вводить в оману, заявили в NHTSA. Вона нібито наводить на думку, що водій не контролює ситуацію.

У той час як інші компанії використовують деякі варіанти слів «допомога», «почуття» або «команда», продукти Tesla переконують водіїв у тому, що вони мають більші можливості, ніж є насправді.

Генеральний прокурор Каліфорнії і Департамент автотранспорту штату ведуть розслідування відносно компанії щодо брендингу та маркетингу, що вводить в оману.

NHTSA визнає, що його розслідування може бути неповним через «прогалини» в телеметричних даних Tesla. Насправді аварій за участю Autopilot і FSD може бути набагато більше, ніж вдалося виявити агентству.

Оновлення Autopilot не вирішило проблеми безпеки

Наприкінці минулого року Tesla випустила добровільне відкликання ПЗ у відповідь на розслідування NHTSA, оновивши програму для додавання додаткових попереджень в Autopilot. Однак NHTSA заявило про початок нового розслідування, оскільки низка експертів з безпеки вказали на «неадекватність» вжитих заходів, що допускають некоректне використання систем допомоги водієві.

Результати розслідування суперечать твердженням глави Tesla Ілона Маска про те, що його компанія займається розробкою ШІ і перебуває на порозі випуску повністю безпілотного електрокара для особистого користування. Наприкінці цього року він планує представити роботаксі, яке має відкрити нову еру для автовиробника.

Минулого тижня під час звіту про прибутки за перший квартал Маск знову заявив, що транспортні засоби Tesla безпечніші за машини під керуванням людини.

«Якщо статистично значущий обсяг даних переконливо показує, що безпілотний автомобіль, скажімо, удвічі рідше потрапляє в аварії, ніж автомобіль із людським керуванням, я думаю, це важко ігнорувати», — сказав Маск.

Він вважає, що припинення експлуатації самохідних автомобілів рівноцінне «вбивству людей».

Ілон Маск націлений на китайський ринок

Одночасно з виходом звіту NHTSA Ілон Маск вирушив із неанонсованим візитом до Китаю. За даними джерел, одним з обговорюваних питань стало обговорення впровадження Autopilot і FSD у країні.

Раніше Маск написав у X, що Tesla може зробити Full Self-Driving доступним для клієнтів у Китаї «дуже скоро».

Китайська державна телекомпанія CCTV у своєму репортажі про зустріч Маска з прем’єр-міністром КНР Лі Цяном не повідомила, чи обговорювали вони FSD або дані.

Поїздка Маска відбулася трохи більше ніж за тиждень після того, як він скасував запланований візит до Індії для зустрічі з прем’єр-міністром Нарендрою Моді.

Нагадаємо, у травні 2023 року міністр транспорту США Піт Буттіджич розкритикував автопілот Tesla.

Читайте ForkLog UA в соціальних мережах

Знайшли помилку в тексті? Виділіть її та натисніть CTRL+ENTER

Матеріали за темою

Ми використовуємо файли cookie для покращення якості роботи.

Користуючись сайтом, ви погоджуєтесь з Політикою приватності.

OK
Exit mobile version