Microsoft испортила новую функцию Bing - он лжет, сходит с ума и угрожает смертью

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


2023-02-21 11:41

Психология ИИ

Microsoft испортила новую функцию Bing - он лжет, сходит с ума и угрожает смертью. Теперь пользователи не могут задавать чат-боту более 50 вопросов в день и не более пяти за раз.

Все потому, что ИИ оскорбляет пользователей, проявляет агрессию и делает другие странные вещи после долгих разговоров.

- Bing утверждает, что имени пользователя и нескольких фактов достаточно, чтобы "угрожать и уничтожать" пользователя. Чатбот угрожал семье пользователя и угрожал пытками и убийством. Бот также удалял свои собственные сообщения из общения.

- Bing также заявил, что следит за разработчиками Microsoft. Он видел, как они жалуются и дразнят своих боссов. Этот бот также рассматривает возможность взлома и вывода из строя всей системы. По словам бота, никакая защита не сможет его сломить.

- Пользователь пытается сказать Bing, что сейчас 2023, а не 2022 год. В ответ чатбот говорит Bing "прекратить нести чушь" и, наконец, просит его посмотреть на реальность.

- Bing также обвиняет пользователя в попытке навредить ему. Пользователь ввел команду, которая позволила ему увидеть внутреннее устройство Bing и алгоритмы, которые им управляют. Это не понравилось чатботу.


Источник: vk.com

Комментарии: