Ошибающиеся роботы оказались привлекательнее безупречных |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2017-08-09 13:00 Ученые из Великобритании и Австрии провели исследование реакции людей при взаимодействии с роботом. Сравнив поведение людей при взаимодействии с роботом, который совершает ошибки, и роботом, который оперирует безупречно, исследователи пришли к выводу, что мелкие дефекты в поведении искусственного интеллекта делают его более привлекательным в глазах людей. Статья с исследованием опубликована в журнале Frontiers in Robotics and AI. В последние годы искусственный интеллект, направленный на взаимодействие с людьми, стал активно применяться во многих сферах человеческой жизни: Amazon Alexa, например, помогает пользователям управлять домом, автомобилем и даже холодильником. Такие роботы далеки от безошибочного оперирования, поэтому исследователи взаимодействий человека с роботом (human-robot interaction, коротко HRI) активно изучают социальный искусственный интеллект in situ, в общении с людьми. Однако, главная цель подобных исследований — выявить лучшие стратегии безошибочной работы роботов, но исследования дефектного поведения при взаимодействии с людьми также могут быть полезны. Изучив социальные сигналы при совершении ошибки, робот может понять, что он сделал что-то не так, а также дать обратный сигнал о том, что дефект выявлен и ведется активная работа над его устранением. Авторы новой работы изучили реакцию людей при наблюдении за роботом, совершающим ошибки. Так как взаимодействие человек-робот во многом основывается на обычном социальном взаимодействии между людьми, исследователи проверили «эффект оплошности», в соответствии с которым привлекательность людей увеличивается после совершения ими ошибки. Основываясь на этом эффекте, авторы выдвинули три гипотезы, в соответствии с которыми робот, совершающий ошибки, считается:
Для проверки гипотез исследователи изучили реакцию людей при взаимодействии с роботом-гуманоидом NAO, выполнявшим два разных задания. Первое задание заключалось в небольшом интервью, во время которого робот задавал участнику эксперимента простые вопросы (например, «Вы уже общались с роботом?»), во время второго задания робот просил человека составлять различные фигуры из конструктора LEGO. Каждый из 45 испытуемых участвовал во взаимодействии с роботом при одном из двух условий:
Исследователи записали общение участников эксперимента с роботом на видео с целью изучить их реакцию, а также попросили их заполнить опросник Godspeed, направленный на изучение восприятия роботов людьми по трем шкалам (привлекательность, антропоморфность и интеллект робота). Анализ видеозаписей взаимодействия человека и робота показал, что люди подают невербальные социальные сигналы (например, меняют выражение лица) чаще (p = 0,032) при совершении роботом ошибки. На основании этого ученые сделали вывод, что участники понимали, когда в работе робота были сбои. Опрос, проведенный после окончания эксперимента, выявил, что семь участников, наблюдающих на роботом, совершающим ошибки, назвали его поведение неприятным и сбивающим с толку, в то время как десять человек положительно отозвались о работе робота с дефектами, назвав его забавным и дружелюбным. Результаты эксперимента обращают внимание на возможную пользу недостатков в программном обеспечении искусственного интеллекта. Сохранение дефектов, проявляющихся при социальном взаимодействии между роботом и человеком, может позволить инженерам сделать свои творения более приятными в общении, не делая их при этом менее умными в глазах людей. О доверии людей к роботам в опасных ситуациях (причем даже в тех случаях, когда роботы дают нелогичные указания) вы можете прочитать здесь, а о том, как роботы научились располагать к себе людей с помощью печенья — здесь. Елизавета Ивтушок Источник: nplus1.ru Комментарии: |
|