Автопилот поколения Level 3: кто будет отвечать за аварии?
Автопроизводители активно развивают системы вождения Level 3, которые позволяют отводить глаза от дороги, но юридическая ответственность при авариях остается серой зоной. По сообщению The Verge, индустрия движется к массовому внедрению технологии, не решив фундаментальный вопрос: кто будет виноват, когда что-то пойдет не так.
Технологический прорыв с юридическими дырами
General Motors присоединился к растущему списку автопроизводителей, разрабатывающих системы «вождения без контроля зрения». В отличие от существующего Super Cruise, который отслеживает взгляд водителя, Level 3 разрешит полностью отвлекаться от дороги на определенных магистралях. Цель GM — запустить систему к 2028 году, начиная с Cadillac Escalade IQ.
Ключевая проблема Level 3 — противоречивая природа технологии. Водителям разрешено отвлекаться, но они должны быть готовы мгновенно взять управление при запросе системы. Исследования показывают, что люди плохо справляются с такими «внезапными возвратами в контур управления».
Парадокс Level 3 напоминает ситуацию, когда вас просят не спать, но при этом разрешают закрывать глаза. Технологически это возможно, но психологически — противоестественно. Автопроизводители создают системы, которые поощряют расслабленность, но требуют постоянной боевой готовности. Юридические последствия этого когнитивного диссонанса еще предстоит осознать.
Регуляторный вакуум и прецеденты
Ситуация осложняется тем, что Level 3 в большинстве регионов остается незаконным. Исключения:
- Mercedes-Benz Drive Pilot — разрешен только в Калифорнии и Неваде
- BMW и Honda — временные разрешения в Германии и Японии
Mercedes заявляет о готовности нести ответственность за аварии, вызванные их технологией, но с оговорками. Водитель остается ответственным, если не успевает перехватить управление или неправильно использует систему.
Опасные переходы и человеческий фактор
Исследование десятков аварий с участием Tesla показало, что Autopilot отключается «менее чем за секунду до столкновения». Хотя расследование не выявило умысла со стороны компании, такая практика ставит под вопрос реальную готовность систем к непредвиденным ситуациям.
Доктор Александра Мюллер из Insurance Institute for Highway Safety отмечает: «Смешанный транспортный поток, который будет существовать, вероятно, дольше нашей жизни, создает высоконеконтролируемую среду, с которой автоматизированные системы будут бороться бесконечно».
Судебные прецеденты: тенденция обвинять человека
Уже формируется судебная практика, возлагающая ответственность на водителя:
- В Аризоне оператор беспилотного Uber признал вину по обвинению в непредумышленном убийстве
- Водитель Tesla признал вину в двух смертельных случаях при активном Autopilot
- Во Флориде Tesla была признана частично ответственной, но водитель также понес наказание
Такие исходы, вероятно, радуют автопроизводителей, но создают опасный прецедент, когда человек становится «крайним» в системах, предназначенных для его замены.
