Россия движется к законодательному регулированию ИИ: правительственный законопроект «Об основах государственного регулирования сфер применения технологий искусственного интеллекта» размещён на портале regulation.gov.ru для общественного обсуждения и независимой антикоррупционной экспертизы.
Минцифры 18 марта опубликовало основные положения документа. В основе — риск-ориентированный подход: чем сильнее система ИИ влияет на жизнь людей, тем строже к ней требования. Вводятся понятия суверенной, национальной и доверенной моделей ИИ — своеобразная иерархия доверия, определяющая степень государственного контроля над технологией.
Кто за что отвечает
Документ чётко разграничивает ответственность между участниками рынка:
- разработчики обязаны исключать дискриминационные алгоритмы и блокировать генерацию противоправного контента;
- операторы систем ИИ — тестировать их на безопасность и информировать пользователей об ограничениях;
- владельцы сервисов — оперативно пресекать неправомерное использование.
Ответственность за противоправный результат распределяется между всеми участниками цепочки — разработчиком, оператором, владельцем сервиса и пользователем — соразмерно вине каждого.
Иностранные нейросети под угрозой ограничения — или уже ограниченные?
Один из ключевых пунктов законопроекта — норма о трансграничных технологиях ИИ. Под ними понимаются системы, при использовании которых данные передаются за пределы России. Согласно документу, функционирование таких технологий может быть запрещено или ограничено в случаях, установленных российским законодательством.
Старший юрист MWS AI Кирилл Дьяков пояснил РИА Новости, что под действие этой нормы подпадают иностранные модели ИИ, включая ChatGPT, Claude и Gemini: при их использовании запросы, переписка и данные пользователей уходят к разработчикам за рубеж. Это, по его словам, создаёт правовое основание для возможного ограничения или блокировки их работы в России.
Здесь, однако, возникает очевидный практический вопрос. ChatGPT недоступен с российских IP с 2024 года — OpenAI официально не включает Россию в список поддерживаемых стран. Anthropic в сентябре 2025 года обновил политику, запретив использование сервиса в неподдерживаемых регионах, включая Россию. Gemini от Google работает в РФ с перебоями — полноценный доступ к API и продвинутым функциям для российских пользователей ограничен. Роскомнадзор при этом неоднократно заявлял, что никаких требований о блокировке этих сервисов не выдавал — ограничения введены самими компаниями-разработчиками в одностороннем порядке.
Иными словами, Россия готовится законодательно запрещать то, что уже заблокировано с противоположной стороны. На практике без VPN и иностранного номера телефона получить доступ к ChatGPT или Claude из России сегодня невозможно и без какого-либо российского закона. Норма о трансграничных технологиях, по всей видимости, направлена не столько против уже недоступных сервисов, сколько создаёт правовую основу для регулирования тех, кто в Россию всё-таки зайдёт — или уже работает без явных ограничений, как Grok от xAI, Perplexity или DeepSeek.
Маркировка ИИ-контента
Отдельный блок посвящён маркировке: все аудиовизуальные материалы, созданные с помощью ИИ, должны содержать специальное предупреждение. Крупные социальные сети обязаны проверять его наличие и при отсутствии самостоятельно помечать или удалять такой контент.
Первый заместитель председателя ИТ-комитета Госдумы, председатель правления РОЦИТ Алексей Горелкин прокомментировал этот механизм:
Госдума подключилась
19 марта в нижней палате парламента прошло заседание межфракционной рабочей группы по ИИ. Депутаты и эксперты обсудили концепцию альтернативного законопроекта — «О правовом регулировании искусственного интеллекта в Российской Федерации». Концепцию одобрили и рекомендовали правительству учесть предложенные подходы до внесения документа в Думу. Следующий шаг — парламентские слушания, запланированные на 9 апреля 2026 года.
Оба документа развивают Национальную стратегию развития ИИ до 2030 года. Правительственный законопроект пока находится на стадии общественного обсуждения — до середины апреля 2026 года, планируемая дата вступления в силу — 1 сентября 2027 года.
Мнение ИИ
С технической точки зрения вопрос о том, как именно соцсети будут распознавать сгенерированный контент, — самый уязвимый в логике всей нормы. Существуют два подхода: статистический анализ и криптографическая маркировка. Первый — детекторы ИИ-текста и изображений — дает точность порядка 70–80% и страдает от ложных срабатываний. Второй, такой как стандарт C2PA или водяные знаки SynthID от Google, работает надежнее, но только если производитель контента изначально его встраивает. Один скриншот или перекодирование видео — и любая метка исчезает.
Закон фактически возлагает на платформы обязанность, для которой пока нет надежного инструмента. Это не впервые: аналогичная история разворачивалась с требованиями фильтровать пиратский контент — её решили через Content ID, который разрабатывался годами. Главный вопрос здесь не политический, а инженерный: появится ли российский аналог такой инфраструктуры до 1 сентября 2027 года?