Разработан тест для изучения моральных дилемм искусственного интеллекта

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Мораль искусственного интеллекта — один из самых обсуждаемых вопросов, связанных с наступлением всеобщей компьютеризации. Массачусетский технологический институт создал тест, помогающий понять моральные дилеммы, с которыми сталкиваются разработчики разума машины.

Тест крайне простой. Человеку предлагается поставить себя на место искусственного интеллекта самоуправляемого автомобиля и решить, кем пожертвовать в ДТП — пассажирами в машине или пешеходами на перекрестке. Другой вопрос заставляет выбирать, кого из пешеходов придется задавить, чтобы спасти других.

В конце теста пользователю сообщают, кем он жертвовал чаще всего и приводятся результаты других опрашиваемых.


Источник: ria.ru

Комментарии: