ai-governanceeu-ai-acteu-ai-act-robustnesscompliancesecurity

EU AI Act Статья 15: требования к точности и устойчивости

Nikola Kovtun · · 8 мин чтения
EU AI Act Статья 15: требования к точности и устойчивости

Производственный AI-агент в рабочем процессе кредитования финтех-компании производил неточные результаты верификации доходов в 0,3% заявок — примерно 15 случаев в месяц. Показатель точности выглядел приемлемым при тестировании: 99,7%.

Через три месяца после развёртывания эти 15 ежемесячных случаев превратились в паттерн: неточность была не случайной. Она коррелировала с конкретным форматом документа о доходах, используемым двумя банками в одном регионе. Клиенты этих банков систематически оказывались в невыгодном положении.

Проблема по статье 15 заключалась не в показателе точности — 99,7% прошло бы большинство тестов. Проблема заключалась в отсутствии непрерывного мониторинга точности, анализа смещения по подгруппам и задокументированной обработки ошибок для конкретного режима сбоя.

TL;DR

  • Статья 15 требует, чтобы системы AI высокого риска достигали соответствующих уровней точности, устойчивости и кибербезопасности
  • Точность — это не единый тест: она должна поддерживаться в течение всего жизненного цикла системы и измеряться по релевантным подгруппам
  • Устойчивость охватывает защищённость от ошибок, неисправностей и несоответствий — включая состязательные входные данные
  • Кибербезопасность требует защиты от атак, которые могут изменить поведение системы
  • Обработка ошибок и резервное поведение должны быть определены, задокументированы и протестированы

Что охватывает статья 15

Статья 15 EU AI Act озаглавлена «Точность, устойчивость и кибербезопасность». Она содержит три различных, но перекрывающихся требования.

Точность

Статья 15 требует от систем AI высокого риска достижения «соответствующих уровней точности». Слово «соответствующих» выполняет значительную юридическую работу — это означает, что стандарт точности зависит от контекста.

Система медицинской сортировки и система рекомендаций товаров имеют разные требования к точности. EU AI Act не определяет универсального порога; он требует, чтобы провайдеры определяли соответствующий уровень для своего контекста, демонстрировали его достижение и поддерживали его на протяжении всей работы системы.

Критически важно, что требование к точности распространяется на подгруппы. Система с 99% общей точностью, систематически хуже работающая для конкретных демографических или географических групп, не удовлетворяет статье 15, если это снижение производительности создаёт дискриминационные эффекты.

Устойчивость

Статья 15 требует, чтобы системы были «устойчивы к ошибкам, неисправностям или несоответствиям, которые могут возникнуть в системе или в среде, в которой функционирует система».

Для AI-агентов устойчивость охватывает:

  • Устойчивость к входным данным — Как агент обрабатывает неправильно сформированные входные данные, неожиданные граничные случаи или входные данные вне его обучающего распределения?
  • Операционная устойчивость — Как ведёт себя агент, когда восходящие зависимости (API, базы данных, внешние сервисы) дают сбой или производят неожиданные выходные данные?
  • Поведение в деградированном режиме — Что происходит, когда компонент системы недоступен? Агент безопасно завершает работу или продолжает с неполной информацией способами, увеличивающими риск?
  • Состязательная устойчивость — Может ли система быть манипулирована через тщательно сформированные входные данные, предназначенные для изменения её поведения? Инъекция промптов, отравление данных и атаки на извлечение модели являются основными состязательными угрозами для AI-агентов.

Кибербезопасность

Статья 15 явно включает кибербезопасность как измерение устойчивости. AI-системы должны разрабатываться «с учётом обеспечения соответствующего уровня кибербезопасности».

Для AI-агентов основные проблемы кибербезопасности:

  1. Инъекция промптов — Вредоносный контент в среде агента, заставляющий его вести себя вопреки своим инструкциям
  2. Извлечение модели — Запросы, предназначенные для реконструкции модели или её обучающих данных
  3. Отравление обучающих данных — Манипуляция обучающими данными для создания backdoor-поведения
  4. Манипуляция при выводе — Манипуляция входными или выходными данными модели в реальном времени

Эти классы атак требуют как технических мер снижения (валидация входных данных, фильтрация выходных данных, ограничение скорости), так и мер снижения на уровне управления (конституциональные правила, устойчивые к манипуляциям, обнаружение аномалий для дрейфа поведения).

Практическая реализация

Реализация точности

Определите метрики точности для каждого случая использования. Для агента кредитного скоринга: частота ложноположительных результатов, частота ложноотрицательных результатов, калибровка по уровням доходов и географическое распределение ошибок. Эти метрики должны быть определены до развёртывания и измеряться непрерывно после.

Измеряйте точность по подгруппам. Совокупные метрики точности могут скрывать систематическое снижение производительности. Определите релевантные подгруппы для вашего случая использования — демографические, географические, по типу продукта, по формату документа — и измеряйте точность по подгруппам.

Установите пороги точности и мониторинг. Определите допустимые диапазоны точности и действие, инициируемое при выходе точности за пределы диапазона. Для агента кредитования снижение точности для конкретного типа документа должно запускать: проверку, остановку или эскалацию в очередь проверки человеком.

Задокументируйте доказательства точности в технической документации Приложения IV. Доказательства точности — результаты тестов, методология тестирования, анализ подгрупп — должны появляться в технической документации, требуемой Приложением IV.

Реализация устойчивости

Измерение устойчивостиТип тестаМинимально необходимое
Граничные случаи входных данныхГраничное тестированиеОпределённое поведение для всех входных данных
Сбой зависимостиХаос-тестированиеЗадокументированное поведение в деградированном режиме
Состязательные входные данныеRed team / инъекция промптовПротестированный, задокументированный остаточный риск
Сдвиг распределенияShadow deploymentОповещения мониторинга при обнаружении сдвига

Определите безопасное поведение при сбое. Каждый режим сбоя должен иметь определённый обработчик. «Агент возвращает ошибку» — это безопасное поведение при сбое. «Агент продолжает с неполной информацией» без задокументированного обоснования — нет.

Тестируйте деградированный режим явно. Сценарии сбоя для AI-агентов включают: API модели недоступен, база данных недоступна, слой управления отключён, очередь эскалации заполнена. Что делает агент в каждом случае? Протестируйте. Задокументируйте.

Реализация кибербезопасности

Снижение риска инъекции промптов. Для агентов, обрабатывающих внешний контент (веб-страницы, пользовательские документы, данные третьих сторон), реализуйте санитизацию входных данных, обнаруживающую и обрабатывающую внедрённые инструкции. Убедитесь, что внешний контент не может переопределить инструкции системного промпта.

Поведенческий мониторинг. Частоты нарушений конституциональных правил, сдвиги распределения выходных данных и аномальные паттерны вызовов инструментов — все потенциальные индикаторы состязательной манипуляции. Отслеживайте их и оповещайте о значительных отклонениях.

Управление доступом и изоляция. Доступ агента к инструментам, базам данных и API должен быть минимальным для его заявленной функции. Принцип наименьших привилегий ограничивает радиус взрыва состязательно манипулированного агента.

Реализацию слоя управления, связывающего устойчивость с доказательствами соответствия, см. в EU AI Act Статья 12: требования к логированию — детальный разбор.

Обязательство по тестированию

Статья 15 подразумевает обязательство по тестированию — вы не можете продемонстрировать соответствующую точность и устойчивость без тестирования. NIST AI Risk Management Framework — широко используемый ориентир для реализации статьи 15 — определяет, что тестирование должно включать:

  1. Тестирование перед развёртыванием на репрезентативных наборах данных
  2. Состязательное тестирование (red teaming, попытки инъекции промптов)
  3. Анализ производительности по подгруппам
  4. Анализ режимов сбоя и документация
  5. Непрерывный мониторинг после развёртывания с задокументированными базовыми линиями

Требования к обработке ошибок

Требование статьи 15 к устойчивости имеет прямое следствие для обработки ошибок: «соответствующие меры для минимизации и снижения» потенциальных ошибок должны быть на месте.

Для AI-агентов это означает:

Каждый тип ошибки должен иметь определённый обработчик. Не только технические ошибки (таймаут API, сбой модели), но и ошибки управления (нарушение конституционального правила, отсутствующая авторизация) и бизнес-ошибки (выходные данные агента вне ожидаемого диапазона, решение, которое нельзя обосновать).

Обработка ошибок должна быть протестирована. Обработчики должны быть проверены на работоспособность на практике, а не только определены в документации.

Ошибки должны быть зафиксированы. В соответствии со статьёй 12, ошибки входят в число событий, которые должны быть зафиксированы. Незафиксированная ошибка — это ошибка, которую нельзя отслеживать, и требование мониторинга по статье 15, которое не выполнено.

Резервное поведение должно быть безопасным. Система, по умолчанию переходящая к автоматическому одобрению при недоступности слоя управления, имеет небезопасное резервное поведение. Безопасные значения по умолчанию в терминах управления означают: при неопределённости — эскалация или отказ.

Часто задаваемые вопросы

В: Требует ли статья 15 конкретного порога точности?

Нет. Статья 15 требует «соответствующей» точности — стандарта, зависящего от контекста. Вы должны определить, что означает «соответствующая» для вашей системы, продемонстрировать её достижение и поддерживать её. Система, достигающая своего определённого порога в совокупности, но систематически дающая сбой для конкретных подгрупп, всё равно может нарушать статью 15.

В: Как статья 15 взаимодействует с требованиями GDPR к точности автоматизированных решений?

Статья 22 GDPR предоставляет субъектам данных права в отношении чисто автоматизированных решений со значительными последствиями, включая право на оспаривание. Статья 15 является обязательством по проектированию: создайте систему для достижения и поддержания точности. Они взаимодополняют друг друга. Статья 15 требует от вас построить точную систему; статья 22 GDPR требует от вас обрабатывать случаи, когда она ошибается.

В: Что считается состязательным тестированием для целей EU AI Act?

Состязательное тестирование означает систематические попытки произвести сбои, ошибки или манипулированное поведение через специально сформированные входные данные. Для AI-агентов: попытки инъекции промптов (может ли внешний контент переопределить системные инструкции?), зондирование границ (что происходит на краю определённых рабочих условий?) и стресс-тестирование (как ведёт себя система при высокой нагрузке или деградированных зависимостях?). Red teaming — использование специальной команды для попытки реалистичных атак — является рекомендуемым подходом.

В: Требуют ли обновления модели от нашего провайдера повторного тестирования по статье 15?

Да. Обновления модели могут изменять характеристики точности и устойчивости. Непрерывное требование точности по статье 15 означает, что значительные обновления модели запускают проверку ваших доказательств точности. Это не обязательно требует полного повторного тестирования с нуля — целенаправленная оценка, сфокусированная на возможностях, изменённых в обновлении, часто соразмерна.

В: Как статья 15 взаимодействует с системой управления рисками по статье 9?

Статья 15 определяет стандарт качества для точности и устойчивости. Статья 9 требует непрерывной системы управления рисками. Система управления рисками по статье 9 является операциональным механизмом для поддержания стандартов статьи 15. Меры управления рисками для выявленных рисков точности (мониторинг, триггеры переобучения, проверка человеком для выходных данных с низкой уверенностью) — это то, как вы одновременно соблюдаете обе статьи.


Николай Ковтун, основатель Infracortex AI Studio. Слой управления Cortex генерирует доказательства, необходимые для демонстрации соответствия статье 15 — поведенческий мониторинг, обнаружение аномалий и защищённые от фальсификации записи производительности системы. Забронируйте 30-минутный звонок для оценки пробелов по статье 15.

См. также: EU AI Act Статья 9: непрерывное управление рисками для AI-агентов | EU AI Act Статья 12: требования к логированию — детальный разбор | Наблюдаемость AI-агентов vs управление: в чём разница?

Cortex build: 0.1.35-260423

Nikola Kovtun
Nikola Kovtun
AI Knowledge Architect, основатель Infracortex
Начать

Узнайте, где AI сэкономит вам больше всего времени

Начните с диагностики AI-системы. 1-2 дня, от $500, без обязательств. Вы получите структурированный отчёт с вашими главными возможностями.

Заказать диагностику От $500 · 1-2 дня · Без обязательств