Беспилотные автомобили Google далеки от идеала. Предстоит большая работа по улучшению программного обеспечения, внутренней логики и системы машинного зрения. Но есть одна проблема безопасности , которую Google не способна решить по определению. Непредсказуемые действия окружающих водителей — вот в чем главная причина ДТП, пишет NY Times.

В прошлом месяце один из беспилотных автомобилей Google, во время испытательной поездки по городским улицам, приблизился к перекрестку. Внезапно на переходе появился пешеход. В соответствии с программой, машина активировала режим безопасности и замедлила ход. Оператор, который страховал машину, нажал по тормозам. Пешеход остался цел и невредим, чего не скажешь об автомобиле Google, которому в задний бампер тут же въехал седан с человеком за рулем.

Автомобили Google запрограммированы следовать букве закона, то есть они буквально выполняют все требования правил дорожного движения. Как выясняется, во многих ситуациях такое буквальное следование ПДД не является хорошей стратегией. Во время одного из первых тестов в 2009 году автомобиль Google не мог проехать нерегулируемый перекресток, потому что он стоял на стоп-линии и ждал, пока другие водители (люди) полностью прекратят движение и дадут ему проехать. Этого так и не произошло, робот стоял как парализованный.

Сейчас программу доработали, и в таких ситуациях машина трогается на несколько сантиметров вперед, наблюдая с помощью сенсорами за реакцией других автомобилей — дают ей проехать или нет. То есть вместо соблюдения правил она стала вести себя более по-человечески. Подобные настройки нужно внести в другие части программы, для чего и проводят обильные дорожные испытания в реальных условиях.

Это проблема не только Google, с тем же столкнутся и другие машины с автономным управлением. Им приходится действовать в условиях, когда окружающие водители не подчиняются в точности прописанным правилам. «Самая большая проблема в том, что эти автомобили слишком безопасны, — говорит Дональд Норман (Donald Norman), директор Donald Norman в университете Калифорнии в Сан-Диего, который изучает беспилотные автомобили. — Им придется научиться вести себя агрессивно в некоторой степени, а эта степень зависит от культуры».

В ситуациях вроде проезда нерегулируемого перекрестка, водители могут согласовать свои действия через зрительный контакт. «Они на ходу решают, у кого есть право приоритетного проезда», — говорит Джон Ли (John Lee), профессор промышленных и инженерных систем, а также эксперт по безопасности движения и автоматизации университета Висконсина. «Но где глаза у автономного автомобиля?», — задает он риторический вопрос.

Конечно, в идеальном мире автомобилями вообще не будут управлять люди, а на дорогах останутся только программно-аппаратные комплексы на колесах. Но в ближайшей перспективе нужно решать реальную проблему: как обеспечить безопасное сосуществование робомобилей и людей.

Дмитрий Долгов, руководитель группы разработки программного обеспечения для проекта Self-Driving Car, говорит, что за время работы над проектом усвоил одну вещь: людям нельзя быть такими идиотами. Во время недавних презентаций для прессы наглядно проявились проблемы, которые испытывают «слишком безопасные» автомобили Google из-за некорректных действий окружающих водителей. Например, в одном из тестов робомобиль ехал по улице и подъехал к плохо припаркованной машине. Она настолько выдавалась на проезжую часть, что программа Google сочла более безопасным объехать этот участок дороги по газону. Если бы «опасный» автомобиль начал маневр, машина не успела бы уклониться, так что решила не рисковать.

В другом случае робомобиль приближался к перекрестку на красный свет, в умеренном трафике, плавно замедляя ход. Лазерный радар машины вдруг обнаружил, что встречная машина приближается на красный свет со скоростью выше безопасной. Искусственный интеллект активировал экстренную программу для избежания столкновения — и резко дал вправо, чуть не создав аварийную ситуацию на дороге. На самом же деле водитель встречного автомобиля вел себя так, как привыкли многие люди: он ехал быстро до самого перекрестка, а тормозил уже непосредственно перед светофором.

С самого начала тестирования беспилотных машин Google в 2009 году зафиксировано шестнадцать случаев ДТП, и все они по вине людей. В том числе и вышеупомянутая авария 20 августа 2015 года, о которой Google сообщила два дня назад. В результате оператор автомобиля, сотрудник Google, который сидел за рулем для страховки, отправился в больницу с легким повреждением позвоночника.

Возможно, если бы он не взял управление на себя, а дал автомобилю самому решать, с какой силой тормозить, отслеживая при этом дистанцию от машины позади, то ДТП удалось бы избежать. Компания Google говорит, что тут нельзя дать однозначный ответ. Возможно, так и есть.

Фото: Gordon De Los Santos/Google

3 комментария

  1. Аватар

    Int

    05.09.2015 at 11:53

    > с помощью сенсорами
    > другие машин с автономным управлением

  2. Аватар

    Андрей

    08.09.2015 at 19:13

    Виноват тот, кто въехал сзади. Не соблюдал дистанцию. При мне была похожая ситуация. Водитель притормозил, чтобы я прошёл по зебре и ему в зад въехали. Пункт 9.10 ПДД.

Оставить мнение