Хабрахабр

[Перевод] Автономные автомобили учитывают уровень эгоизма людей

image

Оценка того, эгоистичны или альтруистичны водители вокруг, имеет большое значение.

Машина за машиной проезжают мимо, удерживая вас в ловушке, ваше напряжение растет. Представьте, что вы пытаетесь повернуть налево на оживленную дорогу. Проверка встречного движения, небольшой разгон, и вы успешно вливаетесь в трафик. Наконец, великодушный водитель замедляется достаточно, чтобы пропустить вас.

И это ситуация, в которой сложно понять физику движения и мотивы других водителей, о чем говорит тот факт, что в Соединенных Штатах каждый год происходит 1,4 миллиона аварий при поворотах. Такие сцены разыгрываются по всему миру бесчисленное количество раз в день. Обычно они ограничиваются только оценкой физических параметров и принимают более осторожные решения в ситуациях с неоднозначной обстановкой.
image Теперь добавьте в эту ситуацию автономные автомобили.

Автономный автомобиль (синий) наблюдает за траекторией другого человека-водителя (черный). Зная «социальные предпочтения» водителя мы можем предсказать его поведение. Мы можем спрогнозировать будущее движение черного транспортного средства на основе модели принятия решений, максимизирующей полезность («Вождение как игра в смешанном системе человеке-робот»).

Ученые, по сути, частично обучили свои автономные автомобили теории разума (theory of mind), которая позволяет транспортным средствам лучше интерпретировать поведение живых водителей, которые находятся рядом. Недавно группа ученых в области компьютерных наук выяснила, как улучшить работу автономного транспортного средства в этих условиях.

Разум теории

Теория разума настолько близка к нам, что порой тяжело осознать, насколько редко она встречается за пределами нашего вида. Мы легко можем понять, что другие люди думают так же, как и мы, и мы используем этот инструмент, чтобы оценить их знания и возможные мотивы. Мы используем этот инструмент в большинстве социальных взаимодействий, включая вождение. В то время как дружеское махание рукой от другого водителя может означать, что он уступает вам дорогу, то зачастую вы можете сделать выводы и просто на основе того, как он ведет машину.

image

Фиолетовая машина пытается встроиться в поток и должна повзаимодействовать с зеленой машиной. Датасет NGSIM с n = 2 активных автомобилей (фиолетовая и зеленая) и n = 50 «препятствий» (серые). Синее показывает распределение, красная — оценку. Жирная линия показывает предсказанную траекторию алгоритма.

image

Первоначально автомобиль 2 не взаимодействует с автомобилем 1 и не позволяет ему встроиться в поток. Сплошная линия показывает оценку «социальных предпочтений» во времени, а заштрихованная область показывает доверительные границы. Через несколько секунд автомобиль 2 становится более просоциальным, что означает «притормозить/(dropping it back)» и позволяет первой машине встроиться в поток.

Во многих случаях их поведение ничего не сообщает другим водителям. К сожалению, автономные автомобили в этом не очень хороши. Исследование ДТП с автономными автомобилями в Калифорнии показало, что больше чем в половине аварий в автономные машины врезались сзади, так как водители-люди не могли понять действий машин на автоматическом управлении (В частности Volvo работает над тем, чтобы это изменить)

Искусственный интеллект не настолько развит, и это будет излишне для машин, которые взаимодействуют только с ограниченным количеством видов человеческого поведения. Невозможно думать о том, что мы сможем полноценно обучить автономные машины теории разума в ближайшее время. Однако группа исследователей из MIT и Делфтского технологического университета решила, что использование очень ограниченной теории разума возможно для принятия некоторых решений на дороге, включая повороты и ситуации, когда необходимо влиться в поток движения.

image

«Социальные предпочтения» представлены в виде углового предпочтения ϕ, в зависимости от того, как люди распределяют веса/ценность награды/выигрыша в игре про социальную дилемму.

И хотя, конечно, существуют подробные опросы, которые могут дать детальное описание ориентации на социальные ценности человека, автономным машинам обычно некогда проводить опросы среди водителей вокруг. Идея, которая лежит в основе работы исследователей, описана в новой статье в PNAS и включает в себя концепцию ориентации на социальные ценности, которая позволяет оценить, насколько эгоистичны или альтруистичны действия человека.

Таким образом, исследователи разбили ориентацию на социальные ценности на 4 категории: альтруисты, которые стараются быть максимально позитивными к другим водителям; просоциальные водители, которые стараются действовать максимально выгодно для всех остальных (иногда это может быть и эгоистичное ускорение); индивидуалисты, для которых на первом месте их собственный опыт вождения; и водители, которые соперничают со всеми остальными в навыках управления автомобилем.

Ориентация на ценности (Social Value Orientation, SVO)

Исследователи вывели формулу, по которой можно рассчитать ожидаемую траекторию движения для каждой из категорий водителей, учитывая стартовые позиции других машин.

Учитывая эту классификацию, автономная машина сможет спроектировать свои дальнейшие действия. Автономные автомобили были запрограммированы сравнивать траектории реальных водителей с рассчитанными, и использовать это сравнение для определения, к какой из четырех категорий эти водители скорее всего принадлежат. Как писали исследователи, «Мы расширяем возможности рассуждений автономных автомобилей, объединяя оценки личности и стиля вождения других водителей с помощью социальных сигналов».

Эти работы подразумевали, что каждый водитель старается максимально увеличить свою выгоду, альтруизм – лишь случайность в этом увеличении. Это существенно отличается от некоторых работ в этой области, связанных с теорией игр. Фактически, предыдущие исследования показали, что в ситуациях кроме вождения около половины исследованных людей показали просоциальное поведения, а другие 40% были эгоистичны. Новая же работа, напротив, включает альтруистическое поведение в свои расчеты и признает, что поведение водителей сложно оценить, и что они могут менять свои намерения по мере развития ситуации.

image

(Справа)
средняя оценка показана красным цветом, а реальность (80°, альтруист) в черном. (Слева) расчетное распределение предпочтений SVO синей машины показано в виде полярных гистограмм в кругах SVO при подготовке и осуществлении встраивания в поток. Зона взаимодействия соответствует серой области. Оценки SVO с границами неопределенности 1-σ показаны справа.

С системой ориентации на социальные ценности, искусственный водитель смог сделать более точные прогнозы траекторий движения водителей-людей – ошибки снизились на 25%. После внедрения системы, исследователи получили данные о расположении и траекториях транспортных средств, когда водители вливались в поток машин на шоссе, что зачастую требует щедрости других водителей. Система также работала со сменами полосы движения на заполненных автострадах, равно как и при поворотах в поток движения.

image

Когда автономный автомобиль приближается к перекрестку, две эгоистичные машины (синие; i = 2, 3) продолжают движение и не уступают. Небезопасный левый поворот автономного автомобиля (красный; i = 1) со встречным движением. Третий альтруистический автомобиль (пурпурный; i = 4) уступает, замедляется, позволяя автономному автомобилю совершить встраивание.

Например, они выяснили, что водитель на шоссе может начать эгоистично следовать за машиной перед собой, затем начать действовать альтруистично, сбросив скорость, чтобы другой водитель мог влиться в поток движения, а затем снова вернуться к эгоистичному подходу. Используя эти оценки, исследователи могли также сделать некоторые выводы по имеющимся моделям трафика. Аналогично водители, сталкивающиеся с выездом на автостраду, обычно соперничали с другими – как в ситуациях, когда вы видите машину, которая выезжает и замедляет всех, кто застрял за ней.

И это отличный пример того, что если мы хотим интегрировать автономные системы в социальные взаимодействия, то может быть очень важно уделять внимание на то, что уже выяснили ученые-социологи. Пока мы еще далеки от того, чтобы дать автономным машинам полноценный искусственный интеллект или полную теорию разума, но исследования показывают, что можно получить значительную выгоду от использования их ограниченных версий.

Показать больше

Похожие публикации

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Кнопка «Наверх»