Ошибающиеся роботы оказались привлекательнее безупречных

МЕНЮ


Новости ИИ
Поиск

ТЕМЫ


Внедрение ИИНовости ИИРобототехника, БПЛАТрансгуманизмЛингвистика, обработка текстаБиология, теория эволюцииВиртулаьная и дополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информации

АРХИВ


Август 2017
Июль 2017
Июнь 2017
Май 2017
Апрель 2017
Март 2017
Февраль 2017
Январь 2017
Декабрь 2016
Ноябрь 2016
Октябрь 2016
Сентябрь 2016
Август 2016
Июль 2016
Июнь 2016
Май 2016
Апрель 2016
Март 2016
Февраль 2016
Январь 2016
0000

RSS


RSS новости
птичий грипп
Реновация. Снос пятиэтажек в Москве

Новостная лента форума ailab.ru


Simone Giertz / YouTube

Ученые из Великобритании и Австрии провели исследование реакции людей при взаимодействии с роботом. Сравнив поведение людей при взаимодействии с роботом, который совершает ошибки, и роботом, который оперирует безупречно, исследователи пришли к выводу, что мелкие дефекты в поведении искусственного интеллекта делают его более привлекательным в глазах людей. Статья с исследованием опубликована в журнале Frontiers in Robotics and AI.

В последние годы искусственный интеллект, направленный на взаимодействие с людьми, стал активно применяться во многих сферах человеческой жизни: Amazon Alexa, например, помогает пользователям управлять домом, автомобилем и даже холодильником. Такие роботы далеки от безошибочного оперирования, поэтому исследователи взаимодействий человека с роботом (human-robot interaction, коротко HRI) активно изучают социальный искусственный интеллект in situ, в общении с людьми. Однако, главная цель подобных исследований — выявить лучшие стратегии безошибочной работы роботов, но исследования дефектного поведения при взаимодействии с людьми также могут быть полезны. Изучив социальные сигналы при совершении ошибки, робот может понять, что он сделал что-то не так, а также дать обратный сигнал о том, что дефект выявлен и ведется активная работа над его устранением.

Авторы новой работы изучили реакцию людей при наблюдении за роботом, совершающим ошибки. Так как взаимодействие человек-робот во многом основывается на обычном социальном взаимодействии между людьми, исследователи проверили «эффект оплошности», в соответствии с которым привлекательность людей увеличивается после совершения ими ошибки. Основываясь на этом эффекте, авторы выдвинули три гипотезы, в соответствии с которыми робот, совершающий ошибки, считается:

  • более располагающим к себе
  • более «человечным» (антропоморфным)
  • менее умным

Для проверки гипотез исследователи изучили реакцию людей при взаимодействии с роботом-гуманоидом NAO, выполнявшим два разных задания. Первое задание заключалось в небольшом интервью, во время которого робот задавал участнику эксперимента простые вопросы (например, «Вы уже общались с роботом?»), во время второго задания робот просил человека составлять различные фигуры из конструктора LEGO. Каждый из 45 испытуемых участвовал во взаимодействии с роботом при одном из двух условий:

  • робот оперировал без ошибок
  • робот совершал мелкие ошибки во время своей работы
Ошибки, совершенные роботом, делились на два вида: технические ошибки (например, прерывание фразы или повторение одного слова несколько раз) и ошибки социального взаимодействия (например, задержка перед произнесением фразы или просьба немедленно бросить кубики на пол).

Исследователи записали общение участников эксперимента с роботом на видео с целью изучить их реакцию, а также попросили их заполнить опросник Godspeed, направленный на изучение восприятия роботов людьми по трем шкалам (привлекательность, антропоморфность и интеллект робота). 


Пример условия эксперимента: участник складывает фигуры из ЛЕГО в соответствии с инструкциями NAO

Mirnig et al. / Frontiers in Robotics and AI 2017

Результаты опроса показали, что роботы, совершившие ошибки, показались участникам значительно (p = 0,044) более привлекательными, чем роботы, которые работали безупречно. Показатели антропоморфности и интеллекта роботов не отличались (p = 0,109 и p = 0,723 соответственно) между условиями. 

Анализ видеозаписей взаимодействия человека и робота показал, что люди подают невербальные социальные сигналы (например, меняют выражение лица) чаще (p = 0,032) при совершении роботом ошибки. На основании этого ученые сделали вывод, что участники понимали, когда в работе робота были сбои.

Опрос, проведенный после окончания эксперимента, выявил, что семь участников, наблюдающих на роботом, совершающим ошибки, назвали его поведение неприятным и сбивающим с толку, в то время как десять человек положительно отозвались о работе робота с дефектами, назвав его забавным и дружелюбным.

Результаты эксперимента обращают внимание на возможную пользу недостатков в программном обеспечении искусственного интеллекта. Сохранение дефектов, проявляющихся при социальном взаимодействии между роботом и человеком, может позволить инженерам сделать свои творения более приятными в общении, не делая их при этом менее умными в глазах людей. 

О доверии людей к роботам в опасных ситуациях (причем даже в тех случаях, когда роботы дают нелогичные указания) вы можете прочитать здесь, а о том, как роботы научились располагать к себе людей с помощью печенья — здесь.

Елизавета Ивтушок


Источник: nplus1.ru