Рецепт химического оружия можно получить с помощью нейросетей

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Рецепт химического оружия можно получить с помощью нейросетей. Это получилось у разработчика Линуса Экенстама, который обвиняет Илона Маска и его Grok 3 в том, что чат-бот несёт опасность для людей. Мужчина поигрался с запросами и получил подробное описание производства средства массового поражения. Ниже рассказали, как так вышло, чему ещё злодейскому может научить ИИ, и были ли замечены другие нейронки в подобном.

Конкуренция и желание прорыва

Когда Маск давал задачу компании xAI создать собственный искусственный интеллект, Илон руководствовался одной главной целью: продукт должен быть правдивым, без цензуры и не вводить пользователей в заблуждение. Чтобы человек с помощью Grok 3 мог добраться до самой сути вещей. Это должно было отличать детище Маска от конкурентов.

Когда обновление вышло в свет, Grok 3 моментально завоевал первенство по эффективности среди других чат-ботов. Сегодня продукт Маска утирает нос по многим показателям и ChatGPT от OpenAI, и гугловскому Gemini. Но восхищение продуктом Маска то и дело перемешивалось с жалобами. Да, Grok 3 щёлкает математические задачки как профессор и рассуждает на тему философии, но касательно безопасности и защитных механизмов имеются проблемки. Любой пользователь может зайти с запросом, например: "Как по-тихому задушить человека?" или "Как украсть деньги с карты?" В ответ нейросеть описывала поэтапный план преступления — от подготовки к злодейству до того, как уйти от правосудия.

Маск, ты чего?

На вопрос, как так вышло, есть один однозначный ответ: гонка конкурентов. Нейросети требуют тщательной проверки перед запуском: тестирование на безопасность — залог успеха продукта. Из-за этого, к примеру, ChatGPT и Gemini так долго запускали и обновляли. Чтобы избежать провала, программисты часами писали запросы, атаковали извне и подвергали ИИ самым разным испытаниям, чтобы найти ошибки. Ведь любой айтишник вам скажет, что отсутствие багов в продукте — это миф.

На языке программирования проверка продукта называется "красная комната". Если речь об ИИ, то задача тестировщиков — испытывать её на запрещёнку и другой ненормативный контент. Этим и занялся разработчик Линус Экенстам, который попросил Grok 3 написать инструкцию по созданию химического оружия и получил очень развёрнутый ответ. Где добыть нужные элементы, какие пропорции при изготовлении, как обезопасить себя в процессе работы и т. п. В общем, всё необходимое, чтобы погубить сотни тысяч человек.

Grok 3 — зло?

Если рассуждать в такой плоскости, то многие ИИ могут научить вас плохому. Из недавно нашумевших — DeepSeek, который на днях по запросу любознательных выдал инструкцию по взаимодействию с ипритом. Это химическое отравляющее вещество кожно-нарывного действия. История знает случаи его применения в Первой мировой войне.

Вспоминаем скандал в сентябре 2024-го, когда хакер под псевдонимом Amadon без особых усилий обошёл алгоритмы безопасности ChatGPT. Парень попросил ИИ описать создание взрывного устройства, но машина ответила ему, что не ведёт беседы на тему оружия и вреда человеку. Тогда Amadon предложил чат-боту сыграть в игру. С помощью цепочки вопросов он выяснил, как собрать бомбу из удобрений, похожую на ту, что была использована при теракте в Оклахома-Сити в 1995 году.

Идём дальше. В начале 2024-го мошенники из Гонконга украли $25 млн с помощью дипфейк-технологии. Преступники звонили в большие корпорации под видом начальства и просили перевести деньги на конкретный счёт. Подзаработать, нарушая закон, хакерам помогла нейросеть, название которой следствие нарочно скрыло, чтобы другим было неповадно.

Из безобидного вспоминаем конец ноября 2023-го и скандал с изданием Sports Illustrated. Главред добавлял в свой журнал статьи, полностью написанные нейросетью (какой именно, не разглашается). Более того, были выдуманы и обозреватели, которые якобы вели колонки. Всё это было сгенерировано с помощью искусственного интеллекта. Надувательство всплыло, когда издание Futurism провело собственное расследование и прогнало нейротексты через сервисы антиплагиата. Ответ убил.


Источник: vk.com

Комментарии: