Магомедали Алиев для «Теперь вы знаете»: Какие нейросети никогда не появятся в России? «Раздевание» фото, советы по взрывчатке и хакерские инструкции — за что блокируют ИИ |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-02-04 12:26 [id659636228|Магомедали Алиев] для [club67991642|«Теперь вы знаете»]: Какие нейросети никогда не появятся в России? «Раздевание» фото, советы по взрывчатке и хакерские инструкции — за что блокируют ИИ. Мощный ИИ-ассистент у вас в телефоне, который может написать текст, создать картинку и дать совет. Но что, если ваш цифровой помощник в любой момент может превратиться в соучастника преступления, а вы — в нарушителя? Реальность такова, что многие популярные мировые нейросети уже стоят на грани блокировки в РФ. Юрист бюро «Палюлин и партнеры» Магомедали Алиев объясняет суровую логику регулятора: оценивается не философия разработчика, а фактические ответы нейросети. И если её можно спровоцировать на выдачу запрещённого контента — блокировка неминуема. Главный кандидат на запрет — Grok (xAI). Его «специализация» — создание дипфейков и «раздевание» людей на фото, что уже привело к блокировкам в ряде стран. В зоне высокого риска — ChatGPT, Gemini, Claude. Несмотря на строгие правила, их регулярно обходят (джейлбрейки), вынуждая давать инструкции по изготовлению взрывчатки или фишинговые тексты. «Любая информация для подготовки и совершения преступления запрещена к распространению. Есть запрещенные темы — по ним нельзя спрашивать и нельзя отвечать, даже если ИИ «сам позволяет»», — подчеркивает Магомедали Алиев. Пока зарубежные модели балансируют на грани, российские GigaChat и YandexGPT изначально создаются с оглядкой на местное законодательство. Их фильтры и модерация — попытка создать «безопасную» нейросеть. Но и они не идеальны: энтузиасты находят лазейки. Это не просто спор о технологиях, но вопрос вашей личной юридической безопасности при использовании любого ИИ-инструмента. Источник: lenta.ru Комментарии: |
|