Магомедали Алиев для «Теперь вы знаете»: Какие нейросети никогда не появятся в России? «Раздевание» фото, советы по взрывчатке и хакерские инструкции — за что блокируют ИИ

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


2026-02-04 12:26

ИИ проекты

[id659636228|Магомедали Алиев] для [club67991642|«Теперь вы знаете»]: Какие нейросети никогда не появятся в России? «Раздевание» фото, советы по взрывчатке и хакерские инструкции — за что блокируют ИИ.

Мощный ИИ-ассистент у вас в телефоне, который может написать текст, создать картинку и дать совет. Но что, если ваш цифровой помощник в любой момент может превратиться в соучастника преступления, а вы — в нарушителя? Реальность такова, что многие популярные мировые нейросети уже стоят на грани блокировки в РФ.

Юрист бюро «Палюлин и партнеры» Магомедали Алиев объясняет суровую логику регулятора: оценивается не философия разработчика, а фактические ответы нейросети. И если её можно спровоцировать на выдачу запрещённого контента — блокировка неминуема.

Главный кандидат на запрет — Grok (xAI). Его «специализация» — создание дипфейков и «раздевание» людей на фото, что уже привело к блокировкам в ряде стран.

В зоне высокого риска — ChatGPT, Gemini, Claude. Несмотря на строгие правила, их регулярно обходят (джейлбрейки), вынуждая давать инструкции по изготовлению взрывчатки или фишинговые тексты.

«Любая информация для подготовки и совершения преступления запрещена к распространению. Есть запрещенные темы — по ним нельзя спрашивать и нельзя отвечать, даже если ИИ «сам позволяет»», — подчеркивает Магомедали Алиев.

Пока зарубежные модели балансируют на грани, российские GigaChat и YandexGPT изначально создаются с оглядкой на местное законодательство. Их фильтры и модерация — попытка создать «безопасную» нейросеть. Но и они не идеальны: энтузиасты находят лазейки.

Это не просто спор о технологиях, но вопрос вашей личной юридической безопасности при использовании любого ИИ-инструмента.


Источник: lenta.ru

Комментарии: