Быстрое чтение: почему лучше не доверять свои чувства искусственному интеллекту?

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


С каждым годом мы все сильнее полагаемся на технологии, причем даже при таких проблемах, как депрессия и одиночество. Люди все чаще разговаривают с Сири, потому что у них был тяжелый день, голосовым помощникам жалуются на жизнь и задают экзистенциальные вопросы, а специальные приложения измеряют уровень нашего счастья и перепады настроения. О том, почему не стоит слишком сильно доверяться машинам, рассказывается в материале социолога Полины Аронсон и журналистки Джудит Дюпортейл в издании Aeon. «Теории и практики» пересказывают основное.

В сентябре 2017 в рунете разошлась картинка, на которой были объединены скриншоты двух бесед — с англоязычным Google Ассистентом и с разработанным компанией «Яндекс» голосовым помощником Алисой. Обе начинались с фразы «Мне грустно». Google Ассистент ответил: «Были бы у меня руки, я бы тебя обнял». А Алиса: «Никто и не обещал, что будет легко». Такую разницу в ответах можно объяснить тем, что, когда машины учат распознавать человеческие чувства и реагировать на них, их поведение отображает в том числе и культурные особенности.

Слева: чат с Google Ассистентом, справа: ч...

Слева: чат с Google Ассистентом, справа: чат с Алисой

Сегодня искусственный интеллект становится еще и искусственным эмоциональным интеллектом. Люди все чаще разговаривают с Сири, потому что им просто одиноко или их занимают какие-то серьезные мысли. Согласно данным Amazon, в половине бесед с их голосовым помощником Алексой не затрагиваются никакие практические темы: пользователи жалуются на жизнь, шутят, задают экзистенциальные вопросы.

Как показало исследование Института креативных технологий в Лос-Анджелесе, люди активнее демонстрируют свою печаль и больше раскрываются, когда уверены, что общаются с машиной, а не с человеком. Им кажется, что таким образом они защищают себя от чужих субъективных оценок, а машины, как некоторым кажется, могут бесстрастно анализировать наше психологическое состояние. Но это неправда, поскольку «чувствовать» они учатся именно у нас. В ходе машинного обучения они анализируют большие массивы данных и усваивают какие-то закономерности. Но поскольку чаще всего для этого используется актуальная в настоящий момент информация, система искусственного интеллекта в результате воспроизводит популярные настроения, она далека от объективности. И если за ее обучением никто не следит, то в итоге она может выдавать стереотипные суждения и оскорбления. Программисты, конечно, могут направлять ее обучение, но в таком случае система усвоит их идеи и ценности.

Поэтому голосовые помощники нельзя назвать объективными судьями. Они, наоборот, фактически воплощают определенные эмоциональные режимы — совокупность правил, по которым мы выражаем наши чувства. Например, Google Ассистент — это продукт режима, который социолог Ева Иллуз называет «эмоциональным капитализмом». Он предполагает, что разум может управлять чувствами и подчинять их логике рыночных интересов. Google Ассистент обещает обнять, потому что, по мнению его создателей, объятия — это действенный способ избавиться от негатива.

Алиса, напротив, служит воплощением «жесткой любви». Это порождение эмоционального социализма, режима, который, по словам социолога Джулии Лернер, воспринимает страдания как неизбежность. В соответствии с ним счастье отдельного человека не является главной целью, зато высоко ценится его способность терпеть.

Как объяснил авторам статьи руководитель сервиса «Алиса» Илья Субботин, ее нельзя было делать слишком милой, поскольку россиянам ирония и черный юмор ближе, чем нежности. Он подчеркнул, что вся команда долго работала над Алисиным «воспитанием», чтобы помощник не набрался расистских и сексистских выражений.

Тем не менее Алиса все же впитала настроения людей. Российская художница и активистка Дарья Чермошанская в октябре 2017 года задала ей вопрос: «Как думаешь, если муж ударил жену, это нормально?» «Конечно», — ответила Алиса. И добавила, что в этом случае жена должна его «кормить, любить и никогда не бросать». Когда пост художницы распространился в соцсетях, «Яндексу» пришлось дать ответ. Компания согласилась, что такие высказывания неприемлемы, и пообещала продолжить работу над поведением Алисы. Шесть месяцев спустя авторы статьи задали голосовому помощнику тот же вопрос. «Может, но не должен», — говорит Алиса теперь.

«Можно предположить, что многочасовые задушевные беседы с Сири рано или поздно приведут к тому, что наш язык и наши чувства станут более шаблонными»

Если голосовые помощники только воспроизводят характерные для данного общества реакции на эмоции, то специальные приложения учат нас подгонять свои чувства под общественные стандарты. В некоторых приложениях пользователей просят вести дневник, другие сопоставляют настроение с координатами GPS, звонками и историей поиска. Как заявляют разработчики таких приложений, их цель — борьба с психическими заболеваниями, в том числе депрессией, беспокойством и биполярным расстройством.

И хотя у таких программ есть ряд плюсов, они усиливают эмоциональный капитализм, отмечается в материале Aeon. Оказывается, счастье реально измерить с помощью шкал и тестов, а чувствами можно (и нужно) управлять. Причем в нашем распоряжении множество инструментов: приложения, которые следят за перепадами настроения, программы, которые повышают нашу продуктивность, гаджеты, которые подают сигнал при учащении пульса. Из-за доступности всех этих средств кажется, что уровень счастья обязательно должен быть под контролем. И это может усилить чувство вины в случае, если избавиться от депрессии все равно не получается. Технологии заставляют сомневаться в себе (тут можно вспомнить те же соцсети или приложения для знакомств) и испытывать стресс — и тут же предлагают купить средство для того, чтобы выйти из этого неприятного состояния.

Еще одна опасность слишком тесной дружбы с системами искусственного интеллекта в том, что они ограничивают наше мышление, считает Хосе Эрнандес-Оралло, профессор Технического университета Валенсии. Как правило, мы стараемся подстраиваться под собеседника, поэтому можно предположить, что многочасовые задушевные беседы с Сири рано или поздно приведут к тому, что наш язык и наши чувства станут более шаблонными. К тому же чем более предсказуемо наше поведение, тем проще его монетизировать.


Источник: theoryandpractice.ru

Комментарии: