Ученые предложили выбрать, кого должен убить беспилотный автомобиль

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Ученые предложили выбрать, кого должен убить беспилотный автомобиль.

Эксперты хотят понять, как научить самоуправляемые автомобили принимать правильные решения с точки зрения морали.

Представьте, что у вашего автомобиля отказали тормоза. И перед вами встает выбор: сбить переходящих дорогу пятерых пожилых людей или свернуть в сторону, задавив женщину с коляской. А что в такой ситуации должен сделать беспилотный автомобиль, задались вопросом в Массачусетском технологическом институте США. Ученые решили выяснить, как беспилотные автомобили должны решать вопрос о жизни и смерти, не идя вразрез с общественной моралью.

Для того, чтобы понять, как люди поступили в той или иной критической ситуации, сотрудники института разработали специальную игру — Moral Machine http://moralmachine.mit.edu Тест доступен онлайн для всех желающих (в том числе и на русском языке). В игре моделируется ситуация, когда самоуправляемый автомобиль вышел из-под контроля, а искусственный интеллект должен сделать свой выбор.

Всего в тесте представлены 13 ситуаций, в каждой из которых необходимо решить, кого — пешеходов или пассажиров — оставить в живых. Авторы проекта намерены через ответы реальных пользователей понять, какая моральная оценка общества на то или иной действие. Это понимание, считают ученые, в будущем позволит смоделировать возможное поведение компьютера, управляющего беспилотным автомобилем.


Источник: auto.mail.ru

Комментарии: