Закон об ИИ 2026: маркировка и штрафы
Содержание
В начале 2026 года в России параллельно обсуждают закон об ИИ, правила маркировки AI-контента и меры против дипфейков. Для бизнеса это не теория: новые требования затронут рекламные материалы, чат-ботов, обработку данных и выбор моделей для клиентских сервисов.
В феврале 2026 года Правительство РФ внесло законопроект о регулировании искусственного интеллекта. Не рекомендации, не "дорожную карту" - полноценный закон с обязательствами, ограничениями и ответственностью. Параллельно Минцифры совместно с Роскомнадзором разрабатывают требования по маркировке AI-контента. А в январе министр цифрового развития подписал приказ о создании межведомственной рабочей группы по борьбе с дипфейками.
Три инициативы за три месяца. Случайность? Нет.
Почему именно сейчас
Количество дипфейков в России выросло более чем в 4 раза за 2025 год (АНО «Диалог Регионы»). Мошенники подделывают голоса руководителей компаний для перевода денег, генерируют фальшивые видеообращения, создают поддельные документы. По данным Positive Technologies, рост кибератак с использованием AI составил 30% в 2026 году по сравнению с предыдущим.
Одновременно бизнес массово внедряет нейросети. 46% российских компаний уже внедрили или тестируют AI-решения (Яков и Партнёры, 2025). Маркетологи генерируют тексты и картинки, HR-отделы фильтруют резюме, службы поддержки отвечают ботами. И никто не маркирует этот контент как созданный машиной.
Регулятор решил, что пора вмешаться. Поздно? Возможно. Но лучше поздно, чем после крупного инцидента с дипфейком федерального масштаба.
Что именно готовится
Законопроект вводит несколько ключевых понятий.
"Суверенная модель ИИ" - модель, все этапы создания которой (обучение, дообучение, инференс) проходят на территории России. На российских серверах, с данными, соответствующими российскому законодательству. Для критически важных задач - госсектор, финансы, здравоохранение - можно будет использовать только сертифицированные суверенные модели. YandexGPT и GigaChat подходят; ChatGPT и Claude - нет.
"Уровни риска ИИ" - классификация по степени потенциального вреда. Системы высокого и критического уровня (медицинская диагностика, автономное управление транспортом, принятие решений о кредитах) потребуют сертификации ФСТЭК и ФСБ. Для остальных - уведомительный порядок.
Обязательная маркировка AI-контента. Каждое фото и видео, созданное нейросетью, должно содержать метаданные: факт использования ИИ, владелец материала, дата создания. Минцифры прорабатывает технический формат - скорее всего, это будет встраиваемый водяной знак + метаданные EXIF.
Использование ИИ как отягчающее обстоятельство при преступлениях. Если мошенник использовал дипфейк для обмана - наказание будет жёстче.
Таблица: что меняется для бизнеса
| Область | Сейчас | После принятия закона |
|---|---|---|
| AI-контент (тексты, изображения) | Без ограничений | Обязательная маркировка |
| AI для госсектора и финансов | Любые модели | Только сертифицированные суверенные |
| Чат-боты с AI | Без раскрытия | Обязательное уведомление "вы общаетесь с ИИ" |
| Дипфейки | Ответственность по общим статьям | Отдельный состав + отягчающее |
| Сбор данных для обучения | Серая зона | Согласие правообладателей или лицензия |
| Высокорисковый ИИ | Без сертификации | Сертификация ФСТЭК/ФСБ |
Что уже действует прямо сейчас
Закон об ИИ ещё не принят. Но смежное регулирование работает, и штрафы там вполне реальные.
Маркировка рекламы (ФЗ-347). Если вы генерируете рекламные креативы нейросетью - баннеры, тексты объявлений, видеоролики - они подпадают под закон о маркировке рекламы. Пометка "Реклама", данные рекламодателя, токен ERID. Штрафы: до 100 тыс. руб. для физлиц, до 500 тыс. руб. для юрлиц за каждое нарушение.
Оборотные штрафы за утечки персональных данных. Если ваш AI-бот собирает и хранит данные клиентов без надлежащей защиты, а потом случается утечка - штраф от 1% до 3% годовой выручки. Минимум 20 млн руб. за повторное нарушение. Шесть компаний уже получили штрафы в 2025 году; в 2026-м их будет больше.
152-ФЗ о персональных данных. AI-системы, обрабатывающие ПД клиентов, обязаны хранить данные на территории РФ. ChatGPT API с серверами в США этому не соответствует. Мы в Devorra давно перешли на YandexGPT для клиентских ботов именно по этой причине - не из патриотизма, а из прагматизма.
Кому готовиться в первую очередь
Проверьте, попадаете ли вы в одну из этих категорий.
- Маркетинг и контент. Генерируете тексты, картинки, видео через нейросети? Готовьтесь маркировать. Рекламные креативы - уже сейчас (ФЗ-347). Остальной контент - после принятия закона
- Службы поддержки с AI-ботами. Если клиент не знает, что общается с роботом - это проблема. Закон потребует раскрытия. Впрочем, честный бот и без закона работает лучше - мы это видим по своим проектам
- Финтех, медтех, госсектор. Сертификация моделей. Только суверенный ИИ. Планируйте миграцию с зарубежных API заранее; это не "поменять ключ за день"
- E-commerce. Рекомендательные алгоритмы, динамическое ценообразование, чат-боты - всё под регулирование. Уровень риска скорее всего будет средним, но уведомительный порядок придётся соблюдать
- Все, кто работает с персональными данными. Оборотные штрафы уже работают. Не ждите нового закона - проверьте безопасность сейчас
Как Европа и Китай уже регулируют ИИ
Россия не первая. EU AI Act вступил в силу в августе 2024, полное применение с августа 2026. Китай принял закон о deep synthesis (дипфейках) ещё в январе 2023. Сравним подходы.
| Параметр | Россия (проект) | ЕС (AI Act) | Китай |
|---|---|---|---|
| Классификация рисков | 4 уровня | 4 уровня | Отраслевой подход |
| Маркировка контента | Обязательная | Обязательная | Обязательная |
| Сертификация | ФСТЭК/ФСБ | CE-маркировка | Алгоритмический реестр |
| Штрафы | Не определены | До 35 млн EUR / 7% оборота | До 100 000 юаней + блокировка |
| Суверенность | Обязательна для критичных | Нет требования | Фактически да |
Российский подход ближе к китайскому: акцент на суверенность и контроль. Европейский - на права человека и прозрачность. Но маркировку требуют все трое.
Что не работает и чего бояться не стоит
Паника преждевременна. Вот почему.
Закон в стадии разработки. Даже после внесения в Думу - чтения, поправки, согласования. Реалистичный срок вступления в силу - конец 2026 или начало 2027. Подзаконные акты (конкретные требования к маркировке, форматы, сроки) появятся ещё позже.
Малый бизнес скорее всего получит упрощённый режим. EU AI Act освобождает малые предприятия от части требований; российский закон вероятно пойдёт тем же путём. Если вы не работаете с высокорисковым ИИ и не обрабатываете критичные данные - требования будут мягче.
А вот чего бояться стоит: использование AI без понимания, что он делает с данными клиентов. Это риск уже сейчас, без всякого нового закона. Утечка базы клиентов через дырявый API нейросети стоит дороже любого штрафа.
FAQ
Нужно ли маркировать AI-контент уже сейчас?
Рекламный - да, по ФЗ-347. Остальной - пока нет, но закон на подходе. Если начнёте маркировать сейчас добровольно (пометка "создано с помощью ИИ") - потом будет проще перестроиться.
Какие штрафы грозят?
По новому закону об ИИ - пока не определены. Но ориентиры есть: ФЗ-347 за немаркированную рекламу до 500 тыс. руб.; оборотные штрафы за утечки ПД до 3% выручки (мин. 20 млн); EU AI Act - до 35 млн евро. Российские штрафы будут где-то между текущими и европейскими.
Что такое суверенная модель ИИ?
Модель, полностью созданная и работающая на территории РФ. YandexGPT, GigaChat, T-Bank AI - суверенные. ChatGPT, Claude, Gemini - нет. Для госсектора и критической инфраструктуры разрешат только суверенные. Для остального бизнеса пока без ограничений, но тренд очевиден.
Вот что я думаю на самом деле. Закон об ИИ нужен - без него рынок превращается в дикий запад, где дипфейком можно разорить компанию за сутки. Но качество этого закона зависит от того, будут ли его писать люди, которые понимают технологию. Пока что сигналы смешанные; понятие "суверенного ИИ" звучит разумно для госсектора и нелепо для ИП, который использует GPT для написания постов в Telegram.
Что делать бизнесу прямо сейчас? Не паниковать, но и не игнорировать. Три конкретных шага: проверить, как ваши AI-инструменты обрабатывают персональные данные; начать маркировать рекламный контент, если ещё не маркируете; и мигрировать критичные процессы на российские модели, если работаете с госсектором или ПД. Остальное - по мере выхода закона.
Читайте также
Используете AI в бизнесе? Проверьте, всё ли в порядке
Аудит AI-инструментов на соответствие 152-ФЗ, маркировке рекламы и подготовке к новому закону. Проверим ботов, формы, обработку данных - покажем, что исправить.
