Российские ведомства готовят масштабное внедрение ИИ |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-05-17 11:23 Как уже ранее рассказывал НейроСкоп, вектор такой нейротрансформации был задан Президентом страны Владимиром Владимировичем Путиным на конференции Сбера AI Journey – «Путешествие в мир искусственного интеллекта». Президент РФ говорил о переходе к управлению на основе данных, автоматизации бюрократических процедур и применении генеративного ИИ в государственных сервисах. Forbes изучил паспорта цифровой трансформации органов власти на 2026–2028 годы. Оказалось, что многие ведомства пока только присматриваются к ИИ, а часть уже указала конкретные модели. Подробнее: https://share.google/jLMQaC6klWklNqCHl Самый любопытный момент: среди популярных решений – не только российские разработки. В документах встречаются китайская Qwen от Alibaba, Llama и OPT от Meta*, а также отечественные GigaChat, Astra AI, решения МТС и «Яндекса». Где хотят применять ИИ? Ространснадзор – для обработки обращений граждан. Минкульт – для поиска музейных предметов по изображениям. ФМБА – для задач на базе языковых моделей. Минюст – для проверки типовых документов и поиска информации. МИД – для распознавания речи и перевода. Минфин – для ИИ-агента, который будет помогать отвечать на обращения граждан. Ведомства объясняют выбор иностранных моделей прагматично: их можно развернуть локально, в закрытом контуре, на собственных серверах. То есть данные не должны уходить наружу, что формально снижает риски. Но есть важный нюанс: Локальный запуск не превращает модель в полностью понятный и независимый инструмент. Мы можем контролировать сервер, но не всегда понимаем, на каких данных модель обучалась, какие скрытые ограничения в ней заложены и как она поведёт себя в нестандартной ситуации. И вот здесь начинается самое интересное. Технологический суверенитет в ИИ – это долгая инженерная работа: свои данные, свои модели, свои вычислительные мощности, свои специалисты, свои правила безопасности. Пока же государство действует в режиме практического реализма: тестируем то, что работает, сравниваем, разворачиваем в закрытом контуре, параллельно смотрим в сторону отечественных решений. И это нормальный этап. Но он требует не только технической, но и правовой зрелости. Масштабное внедрение ИИ в государственном управлении – это не просто вопрос выбора модели. Это вопрос доверия. Доверия к данным, к модели, к процедуре проверки, к человеку, который принимает итоговое решение. Доверия к тому, что ошибку можно выявить, объяснить и исправить. Именно поэтому, говоря об ИИ в ведомствах, важно обсуждать не только технологический суверенитет, но и архитектуру доверия. Она начинается с простых, но неудобных вопросов: Какие данные передаются модели? Где они обрабатываются? Кто проверяет результат? Кто отвечает за ошибку? Можно ли объяснить принятое решение? Может ли гражданин его оспорить? Есть ли регламент действий, если ИИ ошибся? Без ответов на эти вопросы ИИ не сможет выступить инструментом доверенного управления. Главный вопрос уже не в том, пользоваться ли нейросетями в госуправлении. Пользоваться будут. Вопрос в другом: кто будет понимать, проверять и контролировать эти системы? Потому что ИИ в ведомствах – это будущий слой государственного управления. А значит, масштабное внедрение ИИ в чувствительных сферах невозможно без архитектуры доверия. Доверенный ИИ – это не просто модель, запущенная на своём сервере. Это система, в которой известно, какие данные используются, кто контролирует результат, кто несёт ответственность и как человек может защитить свои права. А как вы относитесь к внедрению ИИ в отечественном госсекторе? Мнение в комментариях! – С уважением, Ваш нейро-эксперт Алексей Закомолдин. * Meta Platforms Inc. признана экстремистской организацией и запрещена в России. Телеграм: t.me/ainewsline Источник: vk.com Комментарии: |
|