Зачем роботу верующие |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2016-08-22 19:18 У Facebook есть неприятная особенность: он сам решает, каких друзей показывать в ленте новостей, а каких тихо скрыть из виду. Раздражает, правда? Но со временем обнаруживаешь, что бездушная компьютерная программа неплохо угадывает, с кем ты желаешь общаться на самом деле, а кого зафрендил из вежливости. Gmail самовольно делит письма в личном почтовом ящике на «важные» и «неважные» - а откуда он, спрашивается, знает? Нам обидно, что робот грубо вмешивается в нашу эмоциональную жизнь, и вдвойне обидно, что вмешивается он с пользой. Таких обид будет все больше и больше. Футуролог Рэй Курцвейл еще в 2005 году спрогнозировал, что к 2045-му наступит «технологическая сингулярность»: техника станет потусторонне сложной, и логику смартфона у себя в кармане не сможет объяснить никакой нобелевский лауреат. Инженеры-энциклопедисты, которые понимали одновременно принцип работы и моста, и паровоза, останутся в далеком прошлом. Так что технике придется просто верить. Выбирает за нас друзей - значит знает, что делает. Это нужно и вовсе принять за аксиому, если доверять роботам вопросы жизни и смерти. В октябре 2013 года американские военные провели испытания нескольких роботов-пулеметчиков: все они бесполезны на поле боя, пока не будет строго доказано, что робот ни при каких обстоятельствах не станет стрелять по своим. Но есть и менее брутальные примеры, которые затрагивают интересы куда большего числа людей. В 2011-м Невада разрешила свободно разъезжать по дорогам штата беспилотным автомобилям - обычным машинам под полным управлением компьютера. В 2012-м похожий закон появился в Калифорнии. Но как заставить себя сесть в машину, которая сама решает, куда и как ехать? Тут на помощь новым технологиям неожиданно приходят первобытные суеверия. Journal of Experimental Social Psychology напечатал в майском номере исследование с провокационным заголовком «Мысли машины: антропоморфизм усиливает доверие к автомобилю-беспилотнику». Антропоморфизм, говорят энциклопедии, это стремление человека наделять все неживое и животное человеческими чертами. Термин в ходу у антропологов, которые имеют дело с дикарями, поклоняющимися какому-нибудь духу пня. Если дикари назначают какую-нибудь капибару тотемом, предком и покровителем, это тоже классический антропоморфизм. Но при чем тут гугломобили? Прежде всего, современные люди много что одушевляют, сами себе не отдавая в этом отчета. Психологи давно знают, что пара противоположностей «кто - что» плохо описывает реальность: разные сущности одушевлены неодинаково. Человек - больше собаки, собака - больше, чем компьютер, а у компьютера определенно «больше души», чем у камня в лесу. «Чертов ноутбук» способен «тормозить», «тупить» и «делать все назло». Даже автомат по продаже билетов в метро - немного личность, в отличие от бордюра или дерева. А как насчет 7-недельного эмбриона в сантиметр длиной? У кого больше души - у взрослого в коме или у умного дрессированного спаниеля? У домашней собаки или у дикого шимпанзе? У робота или у лягушки? Из таких оппозиций авторы исследования 2007 года, описанного в журнале Science, составляли всевозможные пары (эмбрион - спаниель, лягушка - человек в коме) для анкеты с каверзными вопросами. В каждой паре нужно было выбрать того, кто в большей мере наделен каким-нибудь важным человеческим качеством. Кто острей переживает боль? Кто лучше понимает чужие эмоции? Кто вызывает больше симпатии? Всего набралось 18 параметров (голод, боль, страх, эмпатия и т. д.) для 13 персонажей (в компанию к эмбрионам и роботам попали Господь Бог и мертвая женщина), которых комбинировали так и сяк. Опрос широко разрекламировали, и в итоге анкету на сайте заполнили две с лишним тысячи человек. Выяснилось, что практически все ответы - и, значит, представления об «одушевленности» - можно вывести из пары характеристик, которые мозг подсознательно присваивает персонажам. Это «самостоятельность» (agency) и «переживания» (experience). У Бога, к примеру, самостоятельности хоть отбавляй, а вот переживаний мало. Полная противоположность Бога - младенец: самостоятельность на нуле и масса переживаний. Как ни странно, у мертвого больше agency, чем у человека в коме (никакой мистики, здесь сказываются идея «последней воли» и соображения в духе «покойный дедушка тобой бы гордился»). А experience несколько выше, чем у робота: ударить мертвого - более предосудительный поступок, чем пнуть ногой андроида Asimo. Новый эксперимент, 2014 года, имел целью прозондировать отношение к одним только роботам, а именно гугломобилям. Сто подопытных усадили за симулятор вождения. Контрольной группе приходилось управлять виртуальной машиной самостоятельно, в двух других случаях, о которых чуть ниже, управление брал на себя робот. Автопилот оставляет пассажиру возможность вмешаться - повернуть руль, прибавить газу, - но, к примеру, сам держит дистанцию с соседними машинами. Тонкая разница между последними двумя ситуациями с включенным автопилотом и есть главное наблюдение экспериментаторов. Неантропоморфная машина-робот делает свою работу молча. А антропоморфная - не в смысле внешнего вида, но в смысле поведения - разговаривает с пассажиром всю дорогу женским голосом и даже представляется по имени (ее зовут Ирис). Пассажиры не знают, что в сценарий виртуального вождения заложена неизбежная авария. Анкета, которая заполняется по итогам, предлагает найти виноватого. Нужно оценить степень вины конструкторов автомобиля, компании-производителя, самого водителя и, наконец, машины. Хитрость в том, что говорящий и безъязыкий автопилот вели машину абсолютно одинаково. Но «одушевленную» Ирис намного реже называли виновницей аварии. Почему? Если робот ведет себя как человек и тем более наделен чертами личности, подытоживают авторы, мы воспринимаем его как более компетентного: agency на высоте. Косвенно это подтвердили и замеры пульса в ходе эксперимента: пассажиры Ирис чувствовали себя спокойней, и их сердце до самой аварии делало меньше ударов в минуту, чем у подопытных из других групп. Заметно отличалась (в большую сторону) и доля анкет, где, несмотря на аварию, машину оценивают как «надежную». Вера в «надежность» даже в большей степени, чем активность изобретателей, диктует скорость прогресса. Технология приживется не раньше, чем на нее будут готовы положиться. Гугломобили этот тезис отлично иллюстрируют. Еще в 2005 году их разработчики получили премию DARPA за первую версию машины, а к августу 2012 года беспилотники Google наездили в общей сложности полмиллиона километров при минимальном участии человека и всего с одной аварией, да и то в машину под управлением робота въехали сзади на светофоре. Но прийти в автосалон и купить гугломобиль нельзя даже сейчас, в 2014 году: психологический барьер по-прежнему выше технологического. Источник: vk.cc Комментарии: |
|