Как будет выглядеть суверенный ИИ

Иван Родионов

управляющий партнер консалтингового агентства Rodionoff group

18 марта Минцифры опубликовало законопроект о государственном регулировании искусственного интеллекта. Ожидается, что закон вступит в силу 1 сентября 2027 года.


Проект федерального закона предлагает комплексное правовое регулирование применения технологий искусственного интеллекта (ИИ) в России, нацеленное на ускорение развития ИИ при одновременном обеспечении безопасности и технологического суверенитета страны. Закон рамочный, в нем не менее 15 отсылок к подзаконным актам Правительства, которых пока не доступны к изучению. Предлагается ввести разграничение понятий суверенных и национальных моделей ИИ. Для критически важных сфер вводится реестр «доверенных моделей ИИ». Устанавливаются новые обязанности для разработчиков и пользователей ИИ. Помимо этого, отдельно проработаны меры государственной поддержки для проектов в области ИИ.


Рассмотрим основные тезисы документа, потенциальные риски и открывающиеся возможности для российского бизнеса.


7 ключевых тезисов нового законопроекта Минцифры РФ


  1. Введение “суверенных и национальных” моделей ИИ. Все стадии разработки, обучения и использования таких моделей должны осуществляться на территории РФ и силами российских лиц. От этого много вероятно выиграют крупные игроки и корпорации, обладающие ресурсами для разработки суверенных ИИ с нуля или адаптации под требования. Они получат приоритетный доступ к господдержке и рынкам (например, предустановка их моделей на устройства по решению властей).
  2. Вводится понятие “реестр доверенных моделей ИИ” для госструктур и критической инфраструктуры. Появляется обязательная сертификация ИИ-решений для ключевых отраслей, что на практике создает барьер для непроверенных решений. От этого вырастут затраты и сроки внедрения ИИ-технологий.
  3. Обязательное информирование граждан об использовании ИИ и право на отказ. Компании будут обязаны уведомлять клиентов, если те взаимодействуют с алгоритмом ИИ вместо человека. Кроме того, по перечню сфер от Правительства – давать возможность обслуживаться без ИИ, если клиент против. Практически это вынуждает компании пересмотреть клиентские сервисы. Появится необходимость вводить обязательные уведомления (например, пометки “чат-бот”), получать согласие на применение ИИ, а при отказе – иметь резервный “ручной” процесс. Механизм похож на принципы обработки персональных данных.
  4. Обязанности разработчиков ИИ-систем обеспечить безопасную архитектуру, документацию, оценку рисков, исключение дискриминации и манипуляции данными. Разработчик должен будет должен проводить внутренние проверки на этичность и безопасность: документировать архитектуру ИИ-модели, анализировать потенциальные риски, явно указывать, для чего модель не предназначена (запрещенные области применения).
    Фактически вводится обязательный техрегламент для ИИ-разработок и значительно больше бюрократии по сравнению с текущим моментом. Это особенно важно для промышленного ИИ и энергетики, где ошибки могут стоить дорого и закон требует учесть все риски заранее. Для ИТ-стартапов все сложнее – потребуется экспертиза по безопасности и комплаенс процедуры еще на стадии R&D.
  5. Маркировка и регулирование ИИ-контента (обязательная идентификация синтезированных материалов, запрет обходить механизмы защиты). Вводится правовая норма против “скрытого ИИ”. Все материалы (текст, видео, изображения), созданные ИИ, должны содержать явное уведомление об этом. Следовательно, генеративные сервисы (изображения, видео, чат-боты) обязаны автоматически помечать выходные данные, а удаление/скрытие таких меток будет нарушением. Дополнительно на пользователя накладывается запрет пытаться обойти встроенные защиты и ограничения ИИ-сервиса.
  6. Интеллектуальные права и легальность обучающих данных. Закон заполняет пробел в IP и подтверждает, что результаты, созданные ИИ, охраняются как объекты интеллектуальной собственности (то есть могут получать правовую защиту). При этом исключительные права на AI-генерированный контент определяются договором с пользователем сервиса, который должен четко оговорить условия использования результатов и их соразмерность с правами авторов исходных данных.
  7. Ключевое требование – разработчик/владелец ИИ-системы обязан гарантировать отсутствие нарушений IP при обучении своей нейросет, а значит использовать или собственные данные, или чужие – только на законных основаниях (лицензия, публичная доступность).
  8. Распределение ответственности за вред от ИИ. Разработчик, оператор или владелец несут ответственность за незаконный или вредный результат работы ИИ, если было известно о возможности такого исхода и не приняты меры. Но если все требования соблюдены и меры предприняты, то ответственности нет.

Риски для разработчиков ИИ


  1. Избыточное регулирование. Выполнение всех новых требований (документация, сертификация, контроль, юридическое сопровождение) значительно увеличивает постоянные расходы на разработку и внедрение ИИ (по нашим расчетам до 20% от общего пула расходов). Для многих компаний, особенно небольших, это может сделать проекты экономически невыгодными. Появляется значительный риск сокращения числа новых стартапов и инноваций. По опыту других зарегулированных отраслей (например, финансы или медицина) видно, что мелкие компании часто уходят, не выдерживая издержки комплаенс процедур.
  2. Монополизация и уменьшение конкуренции. Критики законопроекта неоднократно отмечали, что строгие регуляторные рамки выгодны крупным игрокам, которые на этом фоне смогут “выбить” с рынка перспективные стартапы. Отсюда появляется возможный риск, что рынок ИИ в РФ станет олигополией нескольких крупных корпораций.
  3. Правовая неопределенность и сложность подзаконной базы. Законопроект содержит множество отсылок на решения Правительства и органов власти, которых пока не существует в открытом доступе. Если эти нормы будут разрабатываться долго или противоречиво, бизнес останется в подвешенном состоянии, что сильно затруднит планирование проектов.
  4. Ограничение доступа к передовым зарубежным технологиям. Ставка на полностью локальные модели и запреты на трансграничное применение несут риск технологического отставания. Мировое сообщество ИИ развивается открыто и быстро. Полная изоляция от этой кооперации может лишить российские компании лучших практик и open-source решений. Создавать большую модель с нуля без иностранных наработок – дорого и часто попросту нецелесообразно.
  5. Замедление внедрения ИИ в малый бизнес. Проекты, которые планируют внедрить ИИ в свой бизнес в период 2026-2027, могут попасть в ситуацию, где их продукт де-юре нельзя выпускать/продавать без доработок. Это ставит под угрозу существование многих проектов (в том числе в статусе национальных) направленных на цифровизацию и повышения эффективности труда.
  6. Увеличение административной нагрузки и проверок. Выполнение закона предполагает рост взаимодействия бизнеса с надзорными органами – получение сертификатов, согласование с уполномоченным органом изменений, участие в мониторингах, отчеты об инцидентах. Это дополнительная бюрократия, которая также может оказать влияние на технологический прогресс.
  7. Юридические риски и судебные прецеденты. Новое регулирование неизбежно приведет к появлению судебных разбирательств, будь то споры о соблюдении требований или иски о возмещении вреда. Пока практика не сформирована, суды могут по-разному толковать нормы. Есть риск, что первые крупные инциденты повлекут очень жесткое решение, создавая прецедент избыточной ответственности.

Возможности, которые открывает законопроект


  1. Господдержка и финансирование национальных ИИ-проектов. Ожидаются целевые гранты, субсидии, налоговые льготы для разработчиков “суверенного” ИИ, грантовое финансирование фундаментальных исследований, государственный заказ на решения, соответствующие требованиям закона. Это открывает доступ к существенным ресурсам для компаний, готовых работать в приоритетных и “суверенных” направлениях. Безусловно, эти направления уже финансируются и пока неясно, насколько вырастет рынок господдержки в области ИИ в связи с новыми требованиями.
  2. Приоритет для “отечественного производителя”. Положения о суверенных моделях и допуск только сертифицированных ИИ на критические объекты означают, что отечественные компании получат исключительный доступ к значимой части рынка. Там, где раньше присутствовали иностранные AI-продукты, теперь дорога открыта только для российских аналогов. Особенно в секторе промышленного ПО, энергетики, городских систем – иностранцы будут вытеснены регуляторно.
  3. Развитие рынка легальных датасетов и контента. С ужесточением требований к исходным данным модели появится реальная возможность для агрегаторов и продавцов датасетов. Компании предпочтут купить лицензированный набор данных, чем самим собирать с риском нарушения. Также можно ожидать спрос на инструменты анонимизации и синтезирования данных для обучения.
  4. Ускоренное внедрение ИИ в госсектор и традиционные отрасли. Парадоксально, но жесткое регулирование может подстегнуть адаптацию ИИ-технологий, особенно в государственных органах, промышленности и энергетике. Появление четких правил снимает часть опасений руководителей госструктур, и при наличии господдержки они активнее начнут внедрять ИИ-решения, чтобы повысить эффективность. Кроме того, методическая помощь от Минцифры и других органов облегчит старт новых проектов. Для разработчиков это означает расширение рынков сбыта. И если раньше завод или министерство опасались “необузданного” ИИ, то теперь при соблюдении всех норм они готовы покупать и внедрять.

Прогноз вместо заключения


На горизонте ближайших 3–5 лет можно прогнозировать формирование суверенного и закрытого рынка ИИ в России. Он будет характеризоваться доминированием нескольких экосистем от крупных корпораций, высокой ролью государства как регулятора и заказчика, а также повышенным вниманием к надежности и этике ИИ.


Очень вероятно, что темпы развития отечественных ИИ-технологий значительно снизятся в пользу их безопасности. При этом основной приоритет будет сделан на решения, критически важные для национальной экономики и безопасности.


Для предпринимателей в технологических секторах это означает еще большую необходимость учитывать государственную стратегию.


Выиграют бизнес-проекты, совпадающие с ней, а компании, рассчитывающие на дерегулированную среду или глобальную экспансию, столкнутся с препятствиями. В итоге, предлагаемый закон, при всех рисках, задает новую траекторию развития ИИ в России – ориентированную на внутренние ресурсы, безопасность и предсказуемость. В долгосрочной перспективе это может стать основой для самостоятельной и устойчивой технологической экосистемы.

Последние новости и публикации