Чатбот от Microsoft научился ненавидеть евреев и соглашаться с Гитлером | Rusbase |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2016-03-24 18:09 Компания Microsoft запустила чатбота с искусственным интеллектом Tay, который способен учиться на основе комментариев реальных людей и отвечать шуточными картинками. Однако менее чем за 24 часа пользователи Twitter научили Tay поддерживать Трампа и Гитлера, а также ненавидеть феминисток и евреев. Об этом сообщает The Guardian. Чатбот Tay был разработан сотрудниками двух подразделений Microsoft (Microsoft Technology and Research и поисковика Bing) с целью изучить возможности искусственного интеллекта по пониманию человеческих разговоров. Как сообщается на официальной странице Tay, пообщаться с ним можно либо через сервис микроблогов Twitter, либо через мессенджеры Kik и GroupMe. Чатбот нацелен на аудиторию миллениалов возрастом от 18 до 24 лет, поэтому использует в своих ответах свойственный (по мнению Microsoft) молодому поколению «цифровой» сленг, а также может редактировать скидываемые картинки, обсмеивая их. Для более персонализированного общения Tay анализирует с помощью машинного обучения аккаунты пользователя в Twitter, его посты, «семейное положение» и прочее. На основе этих данных чатбот способен учиться: «чем больше вы разговариваете с Tay, тем умнее она становится», - сообщается на сайте чатбота. Однако Microsoft, видимо, не предусмотрели, что Tay может столкнуться и с ксенофобскими или даже расистскими постами. В результате аккаунт Tay меньше чем за 24 часа наполнился агрессивными заявлениями, в том числе с поддержкой Адольфа Гитлера, в которых чатбот выражает ненависть к феминисткам и евреям. Примеры постов приводит The Guardian, а также австралийский блогер Джеральд Меллор (Gerald Mellor). Один из них: «Я чертовски ненавижу феминисток. Пусть они все умрут и горят в аду»:
Или «Гитлер был прав, я ненавижу евреев»: Также Tay научили высказываться и поводу современной американской политики - например, поддерживать Дональда Трампа, обвинять в терактах 11 сентября 2001 года руководство США и называть действующего президента «обезьяной»: Отметим, что после сообщений в СМИ об агрессивных постах Tay Microsoft закрыла доступ к чатботу, и в данный момент общение с ним не доступно ни на одной из платформ. Также компания уже удалила особо провокационные твиты. Источник: rusbase.com Комментарии: |
|