Роботы могут давить на жалость и манипулировать людьми 

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Люди могут с сочувствием относиться к роботам и скорее всего не выключат его, если тот попросит их «о пощаде». Об этом говорят результаты эксперимента, проведенного немецкими социологами. Результаты исследования опубликованы в журнале PLOS ONE.

Ученые из Университета Дуйсбург-Эссен провели социальный эксперимент, чтобы выяснить, могут ли люди испытывать эмоции по отношению к роботам и могут ли сами роботы повлиять на это. В своей работе авторы использовали робота по имени Нао, который попросил участников эксперимента не выключать его. Большинство людей эта просьба ввела в замешательство, а некоторых и вовсе убедила действительно не нажимать на кнопку.

В исследовании приняли участие 89 людей (29 мужчин и 56 женщин). Ученые сказали волонтерам, что эксперимент направлен на обучение робота с помощью нейросети, хотя на самом деле объектом изучения были как раз сами волонтеры. В начале эксперимента участники просто общались с роботом — отвечали на вопросы о любимой еде, хобби и так далее. Затем ученые заявляли, что эксперимент окончен и просили выключить робота. Однако некоторых участников робот неожиданно для них просил не делать этого, причем не только с помощью звуковых сообщений, но и жестами.

Из 43 волонтеров, услышавших мольбу о пощаде, 13 отказались выключать робота. Остальные его все же выключили, но только после долгих раздумий. После эксперимента участников спросили, почему они засомневались. Часть людей ответили, что просто потому что робот попросил не выключать, другая часть испугалась, что сделала что-то не так, а кто-то заявил, что помедлил с выключением из простого любопытства.


Источник: news.rambler.ru

Комментарии: