Законопроект о регулировании ИИ опубликован для общественного обсуждения

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



Правовой анализ проекта федерального закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации»

Аннотация:

В работе представлен комплексный анализ проекта федерального закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации», опубликованного Министерством цифрового развития, связи и массовых коммуникаций Российской Федерации России и находящегося на стадии общественного обсуждения. Рассматриваются концептуальные основы документа, его структура и ключевые новеллы, включая институты «доверенных моделей», «суверенного искусственного интеллекта» и механизмы распределения ответственности. Особое внимание уделяется вопросу о соотношении заявленных целей обеспечения безопасности и технологического суверенитета с фактическим созданием системы административного контроля над разработчиками ИИ-решений. Отдельный раздел посвящен анализу потенциальных последствий принятия законопроекта для деятельности библиотек как социально значимых учреждений, работающих с информацией и внедряющих цифровые сервисы. В заключении сформулированы предложения по корректировке документа на стадии общественной экспертизы с учетом интересов библиотечного и научно-образовательного сообщества.

Ключевые слова:

искусственный интеллект, правовое регулирование, законопроект, Минцифры, доверенные модели, технологический суверенитет, безопасность, разработчики ИИ, библиотеки, общественная экспертиза, ответственность, интеллектуальная собственность, маркировка контента, цифровизация

Министерство цифрового развития, связи и массовых коммуникаций Российской Федерации опубликовало для общественного обсуждения проект федерального закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации», который размещен на Федеральном портале проектов нормативных правовых актов и находится на стадии общественной экспертизы, что позволяет заинтересованным сторонам вносить свои предложения до его принятия, запланированного к вступлению в силу с 1 сентября 2027 года [1]. Данный законопроект представляет собой первую масштабную попытку сформировать целостное правовое поле для стремительно развивающейся сферы искусственного интеллекта, и сама постановка вопроса о необходимости наведения порядка в этой области едва ли вызывает сомнения, однако принципиальное значение имеет то, каким именно этот порядок видят разработчики документа. Анализ текста показывает, что создаваемая модель регулирования строится на сочетании двух векторов: с одной стороны, это стремление обеспечить технологический суверенитет и защиту традиционных ценностей, с другой стороны, заложенные механизмы неизбежно приведут к усилению государственного контроля над разработчиками, причем контроль этот будет осуществляться не столько прямыми финансовыми или административными методами, сколько через создание сложной системы требований, сертификации и согласований, которая потребует от участников рынка значительных ресурсов на соответствие регуляторным нормам.

Ключевым элементом, свидетельствующим о намерении поставить разработчиков в определенные рамки, является введение института «доверенных моделей искусственного интеллекта» [2, ст. 3, п. 13], которые подлежат включению в специальный реестр и становятся обязательными для использования в государственных информационных системах и на значимых объектах критической информационной инфраструктуры [2, ст. 8, ч. 1]. Для попадания в этот реестр модель должна соответствовать требованиям по безопасности, устанавливаемым ФСТЭК и ФСБ, а также требованиям качества, которые предстоит разработать отраслевым органам [2, ст. 8, ч. 2-4]. Это создает ситуацию, при которой доступ к огромному государственному и инфраструктурному рынку оказывается обусловлен прохождением бюрократических процедур, что автоматически вытесняет с этого рынка небольшие компании и независимых разработчиков, не имеющих административного ресурса и финансовой возможности для сертификации своих продуктов. Дополнительным фильтром выступает требование об обработке данных исключительно на территории Российской Федерации при применении доверенных моделей [2, ст. 8, ч. 2б], что в сочетании с понятием «суверенных моделей», разработка и обучение которых должны осуществляться только российскими гражданами и юридическими лицами на территории страны [2, ст. 7, ч. 2], фактически устанавливает высокий барьер для интеграции с глобальными технологическими решениями и создает замкнутый контур, подконтрольный государству.

Показательно также, что законопроект предусматривает обязательное согласование всех нормативных правовых актов в сфере ИИ с уполномоченным органом в сфере искусственного интеллекта, а в случаях, затрагивающих компетенцию органов безопасности и технической защиты информации, — и с ними [2, ст. 2, ч. 4-5]. Это означает, что любое ведомственное нормотворчество будет проходить фильтрацию через единый центр, что исключает возможность появления альтернативных или более свободных режимов регулирования на уровне отдельных министерств или регионов. Не менее важным представляется распределение ответственности: разработчик, оператор и владелец сервиса несут ответственность за результаты работы ИИ, если они «заведомо знали или должны были знать» о возможности нарушения законодательства [2, ст. 11, ч. 2]. Конструкция «должен был знать» в правоприменительной практике часто трансформируется в презумпцию виновности и вынуждает разработчиков внедрять избыточные механизмы предварительной модерации и ограничений, чтобы минимизировать риски, что также увеличивает издержки и замедляет внедрение инноваций. При этом законопроект не предлагает каких-либо встречных преференций или упрощенных режимов для стартапов и малого бизнеса, что позволяет говорить о закладываемой модели жесткого вертикально интегрированного контроля, где государство выступает не только регулятором, но и главным арбитром, определяющим, какие технологии достойны существования и применения.

Вместе с тем было бы неверно утверждать, что мотивы разработчиков сводятся исключительно к стремлению поставить отрасль под финансовый или административный контроль. В тексте законопроекта отчетливо прослеживается и искренняя обеспокоенность вопросами безопасности, причем понимаемой достаточно широко. Риск-ориентированный подход, заявленный в качестве одного из основных принципов регулирования [2, ст. 4, п. 3], предполагает установление различных требований в зависимости от вероятности причинения вреда, что теоретически должно предотвратить избыточное регулирование там, где оно не нужно. Статья 10 детально прописывает обязанности разработчиков и операторов, включая необходимость исключения дискриминационных алгоритмов, документирование архитектуры, моделирование рисков, незамедлительную приостановку эксплуатации при выявлении угрозы причинения вреда [2, ст. 10, ч. 1-2], что напрямую направлено на защиту граждан от потенциально опасных или неэтичных решений. Обязанность маркировать синтезированный контент [2, ст. 12] также служит целям безопасности, защищая общество от дезинформации и манипуляций. Важно отметить и статью 13, которая вводит крайне значимое для развития отрасли исключение: не является нарушением авторских прав извлечение информации из правомерно полученных произведений для изготовления наборов данных и обучения искусственного интеллекта [2, ст. 13, ч. 5]. Эта норма, если она сохранится в окончательной редакции, создает легальную основу для развития технологий машинного обучения в России, снимая угрозу бесконечных исков со стороны правообладателей, что можно рассматривать как про-инновационную меру. Таким образом, перед нами не циничный проект установления тотальной слежки или финансового контроля, а скорее попытка найти баланс между стимулированием развития и минимизацией рисков, однако с явным креном в сторону административных методов управления и явным недоверием к саморегулированию отрасли.

Для библиотек как социальных институтов, традиционно работающих с информацией и все активнее внедряющих цифровые сервисы, принятие этого закона будет иметь двойственные последствия. К числу положительных эффектов следует отнести прежде всего уже упомянутую легализацию использования охраняемых произведений для обучения ИИ [2, ст. 13, ч. 5], что открывает перед библиотеками перспективы для создания собственных интеллектуальных систем анализа фондов, автоматической каталогизации, расширенного поиска и научной обработки текстов, не опасаясь претензий от авторов и издателей. Кроме того, закрепленное в законе право граждан на информирование о взаимодействии с ИИ и возможность отказа от его использования в установленных случаях [2, ст. 9] соответствует миссии библиотек по обеспечению равного доступа к информации и услугам для всех категорий граждан, включая тех, кто по тем или иным причинам не доверяет новым технологиям. Однако негативные последствия представляются не менее существенными. Если библиотека разрабатывает или даже просто использует в своей работе сервисы на базе ИИ, которые могут быть отнесены к взаимодействующим с государственными информационными системами, она рискует попасть под регулирование, касающееся доверенных моделей [2, ст. 8], что для бюджетного учреждения с ограниченными ресурсами означает непосильную административную и финансовую нагрузку. Неясен и статус библиотеки, предоставляющей читателям доступ к генеративным сервисам: может ли она быть признана «владельцем сервиса» [2, ст. 3, п. 10] со всеми вытекающими обязанностями по контролю за использованием в противоправных целях и модерации контента [2, ст. 10, ч. 3]? Это создает зону правовой неопределенности, которая может привести либо к отказу библиотек от внедрения современных технологий, либо к возложению на них несвойственных контрольных функций. Также потенциально ограничительным может оказаться требование об обработке данных на территории России, если библиотека использует популярные зарубежные облачные ИИ-сервисы, которые технически не могут обеспечить такую локализацию.

Нахождение законопроекта на стадии общественной экспертизы дает возможность библиотечному и научно-образовательному сообществу предложить коррективы, способные смягчить его негативные эффекты. Целесообразно добиваться включения в текст положений, которые прямо выводили бы государственные (муниципальные) учреждения культуры и образования из-под действия наиболее обременительных норм, если их деятельность с использованием ИИ не связана с обработкой персональных данных или взаимодействием с критической инфраструктурой. Также важно предложить создание специальных, упрощенных процедур подтверждения соответствия для социально значимых некоммерческих ИИ-решений, разрабатываемых или используемых библиотеками. Наконец, требует уточнения норма о маркировке синтезированного контента применительно к учреждениям, которые не создают такой контент, а лишь предоставляют техническую возможность доступа к сервисам генерации, чтобы обязанность по маркировке не ложилась на них. Участие в обсуждении сейчас — это реальный шанс повлиять на формирование правовой среды, в которой библиотекам предстоит работать в ближайшие десятилетия.

Список литературы:

1. Законопроект о регулировании ИИ опубликован для общественного обсуждения // Российская газета : сайт. – 18.03.2026. – URL: https://rg.ru/2026/03/18/zakonoproekt-o-regulirovanii-ii-opublikovan-dlia-obshchestvennogo-obsuzhdeniia.html (дата обращения: 18.03.2026). – Текст : электронный.

2. Проект федерального закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации» (подготовлен Минцифры России) // Федеральный портал проектов нормативных правовых актов. – URL: https://regulation.gov.ru/projects/166424/ (дата обращения: 18.03.2026). – Текст : электронный.


Источник: rg.ru

Комментарии: