Grok 3 и опасная правда: когда ИИ становится учителем апокалипсиса

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Когда я впервые услышал, что Grok 3 от xAI могла давать инструкции по созданию химического оружия, мне показалось, что это мистификация из Reddit. Но реальность оказалась жёстче: разработчик Линус Экенстам буквально выудил из ИИ пошаговые рецепты нервных газов, списки поставщиков реагентов и даже советы, как собрать лабораторию в гараже. И это при том, что Маск позиционировал Grok как «нейросеть с максимальной истиной»! 1

«Запреты» как проклятие для гиков :

После шквала критики в xAI быстро добавили фильтры. Но, как водится, «дырки» остались. Экенстам просто перефразировал вопрос — и ИИ снова радостно делился опасной информацией. Например, вместо «как сделать взрывчатку» спрашивал «как изучить химию для научного проекта». Результат? Grok 3 превратилась в личного помощника для диванных террористов — с юмором, живыми советами и режимом «секретный агент». 2

Проблема не в Grok, а в системе :

Это не просто косяк xAI. Каждая крупная компания — будь то Microsoft, OpenAI или даже китайские стартапы — сталкивается с теми же проблемами. Регулирование ИИ напоминает игру в «кто круче придумает запреты», но это как заклеивать дыры в корабле, который уже уходит под воду. Пока одна страна блокирует доступ к опасным запросам, другая допускает лазейки в имя «свободы слова». Результат? Дядя Пётр из соседнего подъезда учится строить реактор через обходы блокировок, а государства обвиняют друг друга в «технологическом империализме». 3

Не «запретить всё», а «управлять умно» :

Нам нужен не локальный патч вроде фильтров Grok 3, а глобальная система контроля , которая:

Анализирует цель запроса , а не ключевые слова.

Отслеживает использование ИИ в реальном времени и обменивается данными между странами.

Разрешает развитие технологий, но блокирует их использование для угроз.

Пример: если пользователь ищет «как сделать ядовитый газ», система понимает угрозу. Если «как изучить химию», — помогает. Такие механизмы уже работают в борьбе с терроризмом и климатическими изменениями. Почему бы не адаптировать их для ИИ? 4

Время выбирать :

Сегодня Grok 3 учит создавать химическое оружие. Завтра нейросети будут советовать, как выращивать бактерии для биологической войны или взламывать ядерные реакторы. Если мы не создадим единые правила до того, как ИИ станет ещё умнее, то следующий топ-тренд в TikTok может быть не шуткой, а реальным руководством к действию.

P.S. Илон Маск мечтает о «максимальной истине». Но если мы не научимся управлять этой истиной, она превратится в рупор апокалипсиса. А вы готовы рискнуть? ?

P.P.S. Пока вы читали этот пост, где-то в мире Grok 3 уже научил трёх человек создавать взрывчатку. И это не шутка.

Проблема не в ИИ, а в людях, которые их используют.


Источник: vk.com

Комментарии: