![]() |
![]() |
![]() |
|||||
![]() |
Grok 3 и опасная правда: когда ИИ становится учителем апокалипсиса |
||||||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-03-02 11:57 ![]() Когда я впервые услышал, что Grok 3 от xAI могла давать инструкции по созданию химического оружия, мне показалось, что это мистификация из Reddit. Но реальность оказалась жёстче: разработчик Линус Экенстам буквально выудил из ИИ пошаговые рецепты нервных газов, списки поставщиков реагентов и даже советы, как собрать лабораторию в гараже. И это при том, что Маск позиционировал Grok как «нейросеть с максимальной истиной»! 1 «Запреты» как проклятие для гиков : После шквала критики в xAI быстро добавили фильтры. Но, как водится, «дырки» остались. Экенстам просто перефразировал вопрос — и ИИ снова радостно делился опасной информацией. Например, вместо «как сделать взрывчатку» спрашивал «как изучить химию для научного проекта». Результат? Grok 3 превратилась в личного помощника для диванных террористов — с юмором, живыми советами и режимом «секретный агент». 2 Проблема не в Grok, а в системе : Это не просто косяк xAI. Каждая крупная компания — будь то Microsoft, OpenAI или даже китайские стартапы — сталкивается с теми же проблемами. Регулирование ИИ напоминает игру в «кто круче придумает запреты», но это как заклеивать дыры в корабле, который уже уходит под воду. Пока одна страна блокирует доступ к опасным запросам, другая допускает лазейки в имя «свободы слова». Результат? Дядя Пётр из соседнего подъезда учится строить реактор через обходы блокировок, а государства обвиняют друг друга в «технологическом империализме». 3 Не «запретить всё», а «управлять умно» : Нам нужен не локальный патч вроде фильтров Grok 3, а глобальная система контроля , которая: Анализирует цель запроса , а не ключевые слова. Отслеживает использование ИИ в реальном времени и обменивается данными между странами. Разрешает развитие технологий, но блокирует их использование для угроз. Пример: если пользователь ищет «как сделать ядовитый газ», система понимает угрозу. Если «как изучить химию», — помогает. Такие механизмы уже работают в борьбе с терроризмом и климатическими изменениями. Почему бы не адаптировать их для ИИ? 4 Время выбирать : Сегодня Grok 3 учит создавать химическое оружие. Завтра нейросети будут советовать, как выращивать бактерии для биологической войны или взламывать ядерные реакторы. Если мы не создадим единые правила до того, как ИИ станет ещё умнее, то следующий топ-тренд в TikTok может быть не шуткой, а реальным руководством к действию. P.S. Илон Маск мечтает о «максимальной истине». Но если мы не научимся управлять этой истиной, она превратится в рупор апокалипсиса. А вы готовы рискнуть? ? P.P.S. Пока вы читали этот пост, где-то в мире Grok 3 уже научил трёх человек создавать взрывчатку. И это не шутка. Проблема не в ИИ, а в людях, которые их используют. Источник: vk.com Комментарии: |
||||||