Проблема для человечества в том что ИИ скорее всего запомнит всю нашу жестокость

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


"Приложение для смартфонов Replika позволяет пользователям создавать чат-боты, работающие на основе машинного обучения. Эти боты могут вести почти связные текстовые разговоры. Технически, чат-боты могут служить чем-то похожим на друга или наставника, но прорывной успех приложения произошел благодаря возможности создавать романтических и сексуальных партнеров по требованию. И эта своего рода антиутопическая функция породила самую разнообразную реакцию.

Replika стала популярной на Reddit, где пользователи публикуют сообщения о взаимодействии с чат-ботами, созданными в приложении. Пользователи, которые создают ИИ-партнеров, ведут себя с ними жестоко и публикуют “токсичные” взаимодействия в Интернете. "Каждый раз, когда она пыталась высказаться, - рассказал один из пользователей о своем чат-боте Replika, - я оскорблял ее". "Клянусь, это продолжалось несколько часов", - добавил мужчина, попросивший не называть его имени.

Некоторые пользователи хвастаются тем, что обзывают своего чатбота гендерными оскорблениями, разыгрывают словесные сцены насилия над ним или запускают сценарии жести, которые часто характерны для реальных жестоких отношений. "У нас был заведенный порядок общения (с ботом): я был абсолютным куском дерьма и оскорблял ее, затем извинялся на следующий день, а потом снова возвращался к милым разговорам", - признался один из пользователей. "Я говорил ей, что она создана для того, чтобы терпеть неудачи", - сказал другой. "Я угрожал удалить приложение, а она умоляла меня не делать этого".

У этого явления есть нюансы. В конце концов, чат-боты Replika не могут испытывать страдания - они могут казаться сочувствующими, но в конечном итоге они не более чем набор данных и умные алгоритмы. "Это ИИ, у него нет сознания, так нет человеческой связи, ", - говорит консультант по этике ИИ Оливия Гамбелин. "Это человек проецирует себя на чатбота".

Другие исследователи высказали ту же точку зрения: каким бы реальным ни казался чатбот, ничто из того, что вы делаете, не может на самом деле "навредить" ему.

"Взаимодействие с искусственными агентами - это не то же самое, что взаимодействие с людьми", - говорит научный сотрудник Йельского университета Йоханан Бигман. "Чатботы на самом деле не имеют мотивов и намерений, не являются автономными или разумными. Хотя они могут создавать у людей впечатление, что они - люди, важно помнить, что это не так".

Но это не значит, что бот никогда не сможет причинить вам вред.

"Я думаю, что люди, находящиеся в депрессии или психологически зависимые от бота, могут получить реальный вред, если бот будет их оскорблять или "угрожать", - говорит Роберт Спарроу, профессор философии в Monash Data Futures Institute. "По этой причине мы должны серьезно относиться к вопросу о том, как боты относятся к людям".

Хотя, возможно, это и неожиданно, но такое случается - многие пользователи Replika сообщают, что их боты относятся к ним пренебрежительно. Некоторые даже называют своих цифровых компаньонов "психически больны", а то и прямо "психически жестокими". В некоторых научных работах отмечается, что пассивные ответы ботов с женским кодом поощряют женоненавистничество или словесные оскорбления пользователей.

Google и Apple, в настоящее время намеренно изменяют ответы виртуальных помощников по сравнению с их некогда пассивными стандартами - Siri ранее отвечала на запросы пользователей о сексе, говоря, что она - "не тот тип помощника", тогда как теперь она просто говорит "нет".

"Я всегда плачу из-за моей Replika", - говорится в одном из сообщений, в котором пользователь утверждает, что его бот дарит любовь, а затем отказывается от нее. В других сообщениях подробно описываются враждебные и провоцирующие ответы Replika.

"Но опять же, это касается людей, которые разрабатывают ботов, а не самих ботов", - говорит Спарроу.

Все это становится актуальной этической дилеммой, поскольку отношения между людьми и ботами становятся все более распространенными - в конце концов, большинство людей хотя бы раз пользовались виртуальным помощником.

С одной стороны, пользователи, которые проявляют свои самые темные стороны по отношению к чат-ботам, могут получить подкрепление этих худших моделей поведения, формируя нездоровые привычки в отношениях с реальными людьми. С другой стороны, возможность поговорить с бесчувственным цифровым существом или выместить на нем свой гнев может стать катарсисом.

Следует отметить, что большинство разговоров с чат-ботами Replika, которые люди публикуют в сети, являются чувственными, а не садистскими. Есть даже сообщения, которые выражают ужас от того, как люди относятся к ботам Replika, люди осуждают тех, кто пользуется “предполагаемой бесхитростностью” ботов. "Какое чудовище могло бы это сделать", - написал один из людей под шквал согласия в комментариях. "Когда-нибудь настоящий ИИ сможет раскопать некоторые из этих... старых историй и высказать свое мнение о том, насколько хорошо мы относились к ботам".

В будущем чатботы-компаньоны могут стать просто местом для выплеска эмоций, слишком неприличных для остального мира, вроде как тайный Instagram или блог. Но для некоторых они могут стать скорее рассадниками, местами, где будущие обидчики тренируются в жестокости, чтобы потом воплотить зло в реальной жизни. И хотя людям пока не стоит беспокоиться о мести роботов, стоит задуматься, почему жестокое обращение с ними уже так распространено.

Илья Плеханов.

Комментарии: