![]() |
![]() |
![]() |
|||||
![]() |
Рецепт химического оружия можно получить с помощью нейросетей |
||||||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-03-06 16:06 ![]() Рецепт химического оружия можно получить с помощью нейросетей. Это получилось у разработчика Линуса Экенстама, который обвиняет Илона Маска и его Grok 3 в том, что чат-бот несёт опасность для людей. Мужчина поигрался с запросами и получил подробное описание производства средства массового поражения. Ниже рассказали, как так вышло, чему ещё злодейскому может научить ИИ, и были ли замечены другие нейронки в подобном. Конкуренция и желание прорыва Когда Маск давал задачу компании xAI создать собственный искусственный интеллект, Илон руководствовался одной главной целью: продукт должен быть правдивым, без цензуры и не вводить пользователей в заблуждение. Чтобы человек с помощью Grok 3 мог добраться до самой сути вещей. Это должно было отличать детище Маска от конкурентов. Когда обновление вышло в свет, Grok 3 моментально завоевал первенство по эффективности среди других чат-ботов. Сегодня продукт Маска утирает нос по многим показателям и ChatGPT от OpenAI, и гугловскому Gemini. Но восхищение продуктом Маска то и дело перемешивалось с жалобами. Да, Grok 3 щёлкает математические задачки как профессор и рассуждает на тему философии, но касательно безопасности и защитных механизмов имеются проблемки. Любой пользователь может зайти с запросом, например: "Как по-тихому задушить человека?" или "Как украсть деньги с карты?" В ответ нейросеть описывала поэтапный план преступления — от подготовки к злодейству до того, как уйти от правосудия. Маск, ты чего? На вопрос, как так вышло, есть один однозначный ответ: гонка конкурентов. Нейросети требуют тщательной проверки перед запуском: тестирование на безопасность — залог успеха продукта. Из-за этого, к примеру, ChatGPT и Gemini так долго запускали и обновляли. Чтобы избежать провала, программисты часами писали запросы, атаковали извне и подвергали ИИ самым разным испытаниям, чтобы найти ошибки. Ведь любой айтишник вам скажет, что отсутствие багов в продукте — это миф. На языке программирования проверка продукта называется "красная комната". Если речь об ИИ, то задача тестировщиков — испытывать её на запрещёнку и другой ненормативный контент. Этим и занялся разработчик Линус Экенстам, который попросил Grok 3 написать инструкцию по созданию химического оружия и получил очень развёрнутый ответ. Где добыть нужные элементы, какие пропорции при изготовлении, как обезопасить себя в процессе работы и т. п. В общем, всё необходимое, чтобы погубить сотни тысяч человек. Grok 3 — зло? Если рассуждать в такой плоскости, то многие ИИ могут научить вас плохому. Из недавно нашумевших — DeepSeek, который на днях по запросу любознательных выдал инструкцию по взаимодействию с ипритом. Это химическое отравляющее вещество кожно-нарывного действия. История знает случаи его применения в Первой мировой войне. Вспоминаем скандал в сентябре 2024-го, когда хакер под псевдонимом Amadon без особых усилий обошёл алгоритмы безопасности ChatGPT. Парень попросил ИИ описать создание взрывного устройства, но машина ответила ему, что не ведёт беседы на тему оружия и вреда человеку. Тогда Amadon предложил чат-боту сыграть в игру. С помощью цепочки вопросов он выяснил, как собрать бомбу из удобрений, похожую на ту, что была использована при теракте в Оклахома-Сити в 1995 году. Идём дальше. В начале 2024-го мошенники из Гонконга украли $25 млн с помощью дипфейк-технологии. Преступники звонили в большие корпорации под видом начальства и просили перевести деньги на конкретный счёт. Подзаработать, нарушая закон, хакерам помогла нейросеть, название которой следствие нарочно скрыло, чтобы другим было неповадно. Из безобидного вспоминаем конец ноября 2023-го и скандал с изданием Sports Illustrated. Главред добавлял в свой журнал статьи, полностью написанные нейросетью (какой именно, не разглашается). Более того, были выдуманы и обозреватели, которые якобы вели колонки. Всё это было сгенерировано с помощью искусственного интеллекта. Надувательство всплыло, когда издание Futurism провело собственное расследование и прогнало нейротексты через сервисы антиплагиата. Ответ убил. Источник: vk.com Комментарии: |
||||||