Ученые предложили выбрать, кого должен убить беспилотный автомобиль

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



Ученые предложили выбрать, кого должен убить беспилотный автомобиль.

Эксперты хотят понять, как научить самоуправляемые автомобили принимать правильные решения с точки зрения морали.

Представьте, что у вашего автомобиля отказали тормоза. И перед вами встает выбор: сбить переходящих дорогу пятерых пожилых людей или свернуть в сторону, задавив женщину с коляской. А что в такой ситуации должен сделать беспилотный автомобиль, задались вопросом в Массачусетском технологическом институте США. Ученые решили выяснить, как беспилотные автомобили должны решать вопрос о жизни и смерти, не идя вразрез с общественной моралью.

Для того, чтобы понять, как люди поступили в той или иной критической ситуации, сотрудники института разработали специальную игру — Moral Machine http://moralmachine.mit.edu Тест доступен онлайн для всех желающих (в том числе и на русском языке). В игре моделируется ситуация, когда самоуправляемый автомобиль вышел из-под контроля, а искусственный интеллект должен сделать свой выбор.

Всего в тесте представлены 13 ситуаций, в каждой из которых необходимо решить, кого — пешеходов или пассажиров — оставить в живых. Авторы проекта намерены через ответы реальных пользователей понять, какая моральная оценка общества на то или иной действие. Это понимание, считают ученые, в будущем позволит смоделировать возможное поведение компьютера, управляющего беспилотным автомобилем.


Телеграм: t.me/ainewsline

Источник: auto.mail.ru

Комментарии: