Как государство будет регулировать ИИ и запретят ли нейросети?

19 марта 2026

Интервью для ОГОНЬ Медиа


Законопроект по регулированию ИИ от Минцифры ждали с трепетом. Особенно на фоне ужесточающейся риторики о регулировании в сфере коммуникаций и цифры в целом. Но конечный вариант – очень крутой.

В мире есть два полярных подхода: 
US – где почти никакого регулирования; 
EU – где, чем дальше, тем хуже. ES AI Act: «Разрешим только то, что безопасно гарантировано, а от всего остального граждан нужно оградить».

Минцифры предлагает не просто гибрид этих моделей, а законодательную платформу для развития – ИИ как инструмент суверенитета и движения.

Главная идея законопроекта – контроль в критических зонах, мягкое регулирование и ставка на суверенитет.

Вводится похожая на европейскую модель рисков: минимальный, ограниченный, высокий и критический. Для последних двух будет обязательная сертификация и требования по безопасности. Это затронет только небольшой процент практически применяемых и разрабатываемых систем критической инфраструктуры, где и так высока регуляторная нагрузка.

Появляется сертификация Федеральной службы по техническому и экспортному контролю (как для информационной системы для персональных данных, например) и специальная комиссия, которая будет определять: у какой системы какой риск. Начинают вырисовываться контуры индустриальной политики в сфере ИИ – появятся понятия суверенных и национальных моделей. Требования к ним очень здравые: отсутствие иностранных компонентов, разработка и обучение в России и на наших датасетах. Есть и бонусы: возможность предустановки на продаваемые в стране устройства и доступ к рынку госзаказа.

Больше всего обсуждений в профессиональном сообществе вызывает маркировка: обязательная маркировка ИИ-контента и оповещение пользователя, что он общается с ИИ. Требования довольно гигиенические. Они могут сделать жизнь хуже в политтехнологиях, например, и маркетинге. Но для конечных пользователей большинства коммерческих продуктов эта норма давно назрела.

На практике все должно привести к тому, чтобы появился рынок сертифицированного ИИ, усилилась роль госзаказа и появился шанс на локальные ИИ-продукты под этот госзаказ. Но усложнился запуск в чувствительных сферах и выросла регуляторная нагрузка. Пока ничего страшного, это даже позитивно.

Опасность, как и в любом новом законопроекте, в практике применения – многие вещи на этом этапе определяются рамочно. Те же нормы регулирования могут при неправильном применении Федеральной службой по техническому и экспортному контролю и ФСБ превратиться в фильтр доступа, отсекающий значительную часть разработчиков в угоду административной селекции.

«Суверенный ИИ» может стать отсечением пользователя от лучших мировых моделей – Anthropic и OpenAI (они обучаются на глобальных датасетов) и предложить только «более слабый ИИ». Юридическая неопределенность в ответственности за результаты работы ИИ может затормозить внедрение ИИ-страхования. Это критично для биг-тех и вообще биг-бизнес компаний.

Но пока все очень похоже на ситуацию, когда рынок готовился к худшему и паниковал перед началом регулирования использования персональных данных или интернет-рекламы. Минцифры в ее текущем виде уже не раз доказало, что страхи эти не сбываются. Поэтому ждем от закона реализации, того что в нем заложено хорошего, а не бюрократического ада. Но любой новый регуляторный акт нас, разработчиков, экспертов и бизнесменов, конечно, потрясет в первые полгода-год внедрения.
 

Статьи

left
right