 # 3 юридических риска при внедрении AI-агентов в 2026 году: что говорит закон Вы внедряете AI-агента — он сам отвечает на письма клиентов, ведёт переговоры, подписывает документы. Красиво. А теперь представьте: агент ошибся, отправил не тот договор, передал данные третьему лицу, заключил сделку без полномочий. Кто идёт в суд? Правильно — вы. 2026 год стал переломным для регулирования AI. EU AI Act уже применяется, российские штрафы за данные выросли до сотен миллионов, а ответственность за действия AI-агентов остаётся серой зоной. Разбираем три главных риска. ## Риск 1: EU AI Act — штраф до 35 млн евро С февраля 2025 года в Евросоюзе начали поэтапно применять Artificial Intelligence Act. К 2026 году под его действие подпадают все high-risk AI-системы — а это практически любой AI-агент, который принимает решения, влияющие на права людей (кредитные скоринги, найм, медицинская диагностика, доступ к услугам). Штрафы: за запрещённые практики — до 35 млн евро или 7% глобального годового оборота. За несоответствие требованиям к high-risk системам — до 15 млн евро или 3% оборота. За непредоставление данных регулятору — до 7,5 млн евро. Если ваш AI-агент работает с европейскими пользователями или обрабатывает их данные — вы уже под EU AI Act. Требования: оценка влияния на права, прозрачность для пользователей, человеческий контроль, техническая документация. Без этого — риск штрафа, который может уничтожить бизнес. ## Риск 2: 152-ФЗ — штрафы до 500 млн рублей за утечку Россия в 2026 году ужесточила ответственность за персональные данные. Федеральный закон № 420-ФЗ от 12.12.2024 вступил в силу 30 мая 2025 года, и теперь штрафы выглядят так: за утечку данных — до 20 млн рублей для юрлиц, оборотный штраф до 500 млн рублей за повторную утечку, за обработку без согласия — до 15 млн рублей. AI-агент, который собирает, хранит или передаёт данные клиентов — это идеальный генератор риска по 152-ФЗ. Он может случайно передать данные третьему лицу, сохранить их на незащищённом сервере, обработать без согласия субъекта. И штраф придёт компании, а не агенту. Требование локализации данных (ст. 18 152-ФЗ) тоже никто не отменял: если AI-агент обрабатывает данные россиян за рубежом — это отдельное нарушение. ## Риск 3: Правовой вакуум — кто ответит за действия AI-агента? В России нет специального закона, который регулирует ответственность за действия AI-агентов. Нет понятия «электронное лицо», нет норм о деликтоспособности AI. Суды применяют общие нормы ГК РФ: ответственность владельца источника повышенной опасности (ст. 1079), ответственность за вред, причинённый работником (ст. 1068), или общие нормы о договорной ответственности. Проблема: AI-агент может действовать за рамками инструкций — и тогда непонятно, отвечает ли владелец за все действия или только за те, что прямо предусмотрены. В EU AI Act этот вопрос решается через требование human-in-the-loop (человек должен контролировать). В России — правовая неопределённость. Что это значит на практике: если AI-агент заключил сделку, подписал договор или совершил платёж — суд, скорее всего, признает это действием от имени компании. А значит — все риски на вас. ## Решение: compliance-агент ASI Biont Три риска объединяет одно: они реализуются, когда компания не контролирует своего AI-агента. Решение — встроить compliance-модуль, который мониторит действия агента в реальном времени, проверяет их на соответствие регуляторным требованиям и блокирует рискованные операции. ASI Biont предлагает compliance-агента, который: - проверяет действия AI-агента на соответствие EU AI Act (high-risk классификация, требования к документации) - контролирует обработку персональных данных по 152-ФЗ (согласия, локализация, уведомления) - фиксирует все действия агента для доказательной базы в суде - предупреждает за 3 дня до дедлайнов по отчётности 2026 год — не время экспериментировать с юридическими рисками. Штрафы уже здесь. Готовы защитить свой бизнес?