MIT запустил Moral Machine: эксперимент по изучению того, как должны поступать беспилотные машины

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


MIT решил внести свой вклад в создании беспилотных машин интересным способом — решить морально-философский вопрос — как должен действовать беспилотный автомобиль в той или иной ситуации.

 
Интерес данного исследования состоит еще и в том, что многие голосующие не имеют прав, а следовательно не знают ПДД, что внесёт своё влияние на результаты.

Основная суть теста — выяснить, что более приоритетный для людей или какие аспекты беспилотный автомобиль обязан принять в расчет:

1) Количество пострадавших (Поехать прямо не нарушая ПДД и убить 4 или нарушить ПДД и убить одного)
2) Сохранить пассажиров или сохранить пешеходов
3) Влияние красного сигнала светофора
4) Важность людей и животных
5) Люди с ожирением подтянутые люди

После прохождения теста вам покажут, как голосуют другие люди

Не хочу теста, хочу посмотреть результат!

Исследование: moralmachine.mit.edu

Составим конкуренцию MIT, проведем свой опрос состоящий всего из одного пункта.
Как должен поступить автопилот в следующей ситуации:

Вы двигаетесь по дороге на которую неожиданно выскакивает ребёнок, скорость автомобиля больше чем тормозной путь до ребёнка, что должен сделать автопилот?

Источник: habrahabr.ru

Комментарии: