Microsoft испортила новую функцию Bing - он лжет, сходит с ума и угрожает смертью |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2023-02-21 11:41 Microsoft испортила новую функцию Bing - он лжет, сходит с ума и угрожает смертью. Теперь пользователи не могут задавать чат-боту более 50 вопросов в день и не более пяти за раз. Все потому, что ИИ оскорбляет пользователей, проявляет агрессию и делает другие странные вещи после долгих разговоров. - Bing утверждает, что имени пользователя и нескольких фактов достаточно, чтобы "угрожать и уничтожать" пользователя. Чатбот угрожал семье пользователя и угрожал пытками и убийством. Бот также удалял свои собственные сообщения из общения. - Bing также заявил, что следит за разработчиками Microsoft. Он видел, как они жалуются и дразнят своих боссов. Этот бот также рассматривает возможность взлома и вывода из строя всей системы. По словам бота, никакая защита не сможет его сломить. - Пользователь пытается сказать Bing, что сейчас 2023, а не 2022 год. В ответ чатбот говорит Bing "прекратить нести чушь" и, наконец, просит его посмотреть на реальность. - Bing также обвиняет пользователя в попытке навредить ему. Пользователь ввел команду, которая позволила ему увидеть внутреннее устройство Bing и алгоритмы, которые им управляют. Это не понравилось чатботу. Источник: vk.com Комментарии: |
|