Все статьи

Закон об ИИ 2026: маркировка и штрафы

Содержание
Коротко: Россия готовит первый закон о регулировании искусственного интеллекта. Обязательная маркировка AI-контента, сертификация моделей высокого риска через ФСТЭК и ФСБ, понятие "суверенного ИИ", борьба с дипфейками. Закон ещё не принят, но подготовиться лучше сейчас - штрафы за нарушения в смежных областях уже достигают 3% годовой выручки.

В начале 2026 года в России параллельно обсуждают закон об ИИ, правила маркировки AI-контента и меры против дипфейков. Для бизнеса это не теория: новые требования затронут рекламные материалы, чат-ботов, обработку данных и выбор моделей для клиентских сервисов.

В феврале 2026 года Правительство РФ внесло законопроект о регулировании искусственного интеллекта. Не рекомендации, не "дорожную карту" - полноценный закон с обязательствами, ограничениями и ответственностью. Параллельно Минцифры совместно с Роскомнадзором разрабатывают требования по маркировке AI-контента. А в январе министр цифрового развития подписал приказ о создании межведомственной рабочей группы по борьбе с дипфейками.

Три инициативы за три месяца. Случайность? Нет.

Почему именно сейчас

Количество дипфейков в России выросло более чем в 4 раза за 2025 год (АНО «Диалог Регионы»). Мошенники подделывают голоса руководителей компаний для перевода денег, генерируют фальшивые видеообращения, создают поддельные документы. По данным Positive Technologies, рост кибератак с использованием AI составил 30% в 2026 году по сравнению с предыдущим.

Одновременно бизнес массово внедряет нейросети. 46% российских компаний уже внедрили или тестируют AI-решения (Яков и Партнёры, 2025). Маркетологи генерируют тексты и картинки, HR-отделы фильтруют резюме, службы поддержки отвечают ботами. И никто не маркирует этот контент как созданный машиной.

Регулятор решил, что пора вмешаться. Поздно? Возможно. Но лучше поздно, чем после крупного инцидента с дипфейком федерального масштаба.

Что именно готовится

Законопроект вводит несколько ключевых понятий.

"Суверенная модель ИИ" - модель, все этапы создания которой (обучение, дообучение, инференс) проходят на территории России. На российских серверах, с данными, соответствующими российскому законодательству. Для критически важных задач - госсектор, финансы, здравоохранение - можно будет использовать только сертифицированные суверенные модели. YandexGPT и GigaChat подходят; ChatGPT и Claude - нет.

"Уровни риска ИИ" - классификация по степени потенциального вреда. Системы высокого и критического уровня (медицинская диагностика, автономное управление транспортом, принятие решений о кредитах) потребуют сертификации ФСТЭК и ФСБ. Для остальных - уведомительный порядок.

Обязательная маркировка AI-контента. Каждое фото и видео, созданное нейросетью, должно содержать метаданные: факт использования ИИ, владелец материала, дата создания. Минцифры прорабатывает технический формат - скорее всего, это будет встраиваемый водяной знак + метаданные EXIF.

Использование ИИ как отягчающее обстоятельство при преступлениях. Если мошенник использовал дипфейк для обмана - наказание будет жёстче.

Таблица: что меняется для бизнеса

ОбластьСейчасПосле принятия закона
AI-контент (тексты, изображения)Без ограниченийОбязательная маркировка
AI для госсектора и финансовЛюбые моделиТолько сертифицированные суверенные
Чат-боты с AIБез раскрытияОбязательное уведомление "вы общаетесь с ИИ"
ДипфейкиОтветственность по общим статьямОтдельный состав + отягчающее
Сбор данных для обученияСерая зонаСогласие правообладателей или лицензия
Высокорисковый ИИБез сертификацииСертификация ФСТЭК/ФСБ

Что уже действует прямо сейчас

Закон об ИИ ещё не принят. Но смежное регулирование работает, и штрафы там вполне реальные.

Маркировка рекламы (ФЗ-347). Если вы генерируете рекламные креативы нейросетью - баннеры, тексты объявлений, видеоролики - они подпадают под закон о маркировке рекламы. Пометка "Реклама", данные рекламодателя, токен ERID. Штрафы: до 100 тыс. руб. для физлиц, до 500 тыс. руб. для юрлиц за каждое нарушение.

Оборотные штрафы за утечки персональных данных. Если ваш AI-бот собирает и хранит данные клиентов без надлежащей защиты, а потом случается утечка - штраф от 1% до 3% годовой выручки. Минимум 20 млн руб. за повторное нарушение. Шесть компаний уже получили штрафы в 2025 году; в 2026-м их будет больше.

152-ФЗ о персональных данных. AI-системы, обрабатывающие ПД клиентов, обязаны хранить данные на территории РФ. ChatGPT API с серверами в США этому не соответствует. Мы в Devorra давно перешли на YandexGPT для клиентских ботов именно по этой причине - не из патриотизма, а из прагматизма.

Кому готовиться в первую очередь

Проверьте, попадаете ли вы в одну из этих категорий.

  • Маркетинг и контент. Генерируете тексты, картинки, видео через нейросети? Готовьтесь маркировать. Рекламные креативы - уже сейчас (ФЗ-347). Остальной контент - после принятия закона
  • Службы поддержки с AI-ботами. Если клиент не знает, что общается с роботом - это проблема. Закон потребует раскрытия. Впрочем, честный бот и без закона работает лучше - мы это видим по своим проектам
  • Финтех, медтех, госсектор. Сертификация моделей. Только суверенный ИИ. Планируйте миграцию с зарубежных API заранее; это не "поменять ключ за день"
  • E-commerce. Рекомендательные алгоритмы, динамическое ценообразование, чат-боты - всё под регулирование. Уровень риска скорее всего будет средним, но уведомительный порядок придётся соблюдать
  • Все, кто работает с персональными данными. Оборотные штрафы уже работают. Не ждите нового закона - проверьте безопасность сейчас

Как Европа и Китай уже регулируют ИИ

Россия не первая. EU AI Act вступил в силу в августе 2024, полное применение с августа 2026. Китай принял закон о deep synthesis (дипфейках) ещё в январе 2023. Сравним подходы.

ПараметрРоссия (проект)ЕС (AI Act)Китай
Классификация рисков4 уровня4 уровняОтраслевой подход
Маркировка контентаОбязательнаяОбязательнаяОбязательная
СертификацияФСТЭК/ФСБCE-маркировкаАлгоритмический реестр
ШтрафыНе определеныДо 35 млн EUR / 7% оборотаДо 100 000 юаней + блокировка
СуверенностьОбязательна для критичныхНет требованияФактически да

Российский подход ближе к китайскому: акцент на суверенность и контроль. Европейский - на права человека и прозрачность. Но маркировку требуют все трое.

Что не работает и чего бояться не стоит

Паника преждевременна. Вот почему.

Закон в стадии разработки. Даже после внесения в Думу - чтения, поправки, согласования. Реалистичный срок вступления в силу - конец 2026 или начало 2027. Подзаконные акты (конкретные требования к маркировке, форматы, сроки) появятся ещё позже.

Малый бизнес скорее всего получит упрощённый режим. EU AI Act освобождает малые предприятия от части требований; российский закон вероятно пойдёт тем же путём. Если вы не работаете с высокорисковым ИИ и не обрабатываете критичные данные - требования будут мягче.

А вот чего бояться стоит: использование AI без понимания, что он делает с данными клиентов. Это риск уже сейчас, без всякого нового закона. Утечка базы клиентов через дырявый API нейросети стоит дороже любого штрафа.

FAQ

Нужно ли маркировать AI-контент уже сейчас?

Рекламный - да, по ФЗ-347. Остальной - пока нет, но закон на подходе. Если начнёте маркировать сейчас добровольно (пометка "создано с помощью ИИ") - потом будет проще перестроиться.

Какие штрафы грозят?

По новому закону об ИИ - пока не определены. Но ориентиры есть: ФЗ-347 за немаркированную рекламу до 500 тыс. руб.; оборотные штрафы за утечки ПД до 3% выручки (мин. 20 млн); EU AI Act - до 35 млн евро. Российские штрафы будут где-то между текущими и европейскими.

Что такое суверенная модель ИИ?

Модель, полностью созданная и работающая на территории РФ. YandexGPT, GigaChat, T-Bank AI - суверенные. ChatGPT, Claude, Gemini - нет. Для госсектора и критической инфраструктуры разрешат только суверенные. Для остального бизнеса пока без ограничений, но тренд очевиден.

Вот что я думаю на самом деле. Закон об ИИ нужен - без него рынок превращается в дикий запад, где дипфейком можно разорить компанию за сутки. Но качество этого закона зависит от того, будут ли его писать люди, которые понимают технологию. Пока что сигналы смешанные; понятие "суверенного ИИ" звучит разумно для госсектора и нелепо для ИП, который использует GPT для написания постов в Telegram.

Что делать бизнесу прямо сейчас? Не паниковать, но и не игнорировать. Три конкретных шага: проверить, как ваши AI-инструменты обрабатывают персональные данные; начать маркировать рекламный контент, если ещё не маркируете; и мигрировать критичные процессы на российские модели, если работаете с госсектором или ПД. Остальное - по мере выхода закона.

Используете AI в бизнесе? Проверьте, всё ли в порядке

Аудит AI-инструментов на соответствие 152-ФЗ, маркировке рекламы и подготовке к новому закону. Проверим ботов, формы, обработку данных - покажем, что исправить.