ai-governanceeu-ai-acteu-ai-act-robustnesscompliancesecurity

EU AI Act Стаття 15: вимоги до точності та стійкості

Nikola Kovtun · · 3 хв читання
EU AI Act Стаття 15: вимоги до точності та стійкості

Виробничий AI-агент у робочому процесі кредитування фінтех-компанії виробляв неточні результати верифікації доходів у 0,3% заявок — приблизно 15 випадків на місяць. Показник точності виглядав прийнятним при тестуванні: 99,7%.

Через три місяці після розгортання ці 15 щомісячних випадків перетворились у паттерн: неточність була не випадковою. Вона корелювала з конкретним форматом документа про доходи, що використовується двома банками в одному регіоні. Клієнти цих банків систематично опинялись у невигідному становищі.

Проблема за статтею 15 полягала не в показнику точності — 99,7% пройшло б більшість тестів. Проблема полягала у відсутності безперервного моніторингу точності, аналізу зміщення за підгрупами та задокументованої обробки помилок для конкретного режиму збою.

TL;DR

  • Стаття 15 вимагає від систем AI високого ризику досягнення відповідних рівнів точності, стійкості та кібербезпеки
  • Точність — це не єдиний тест: вона повинна підтримуватись протягом усього терміну служби системи та вимірюватись за релевантними підгрупами
  • Стійкість охоплює захищеність від помилок, несправностей та невідповідностей — включаючи змагальні вхідні дані
  • Кібербезпека вимагає захисту від атак, які можуть змінити поведінку системи
  • Обробка помилок і резервна поведінка повинні бути визначені, задокументовані та протестовані

Що охоплює стаття 15

Точність

Стаття 15 вимагає від систем AI високого ризику досягнення «відповідних рівнів точності». «Відповідних» означає, що стандарт точності залежить від контексту. Вимога до точності поширюється на підгрупи — система з 99% загальною точністю, що систематично гірше працює для конкретних демографічних або географічних груп, не задовольняє статті 15, якщо це зниження продуктивності створює дискримінаційні ефекти.

Стійкість

  • Стійкість до вхідних даних — Як агент обробляє неправильно сформовані вхідні дані або дані поза його навчальним розподілом?
  • Операційна стійкість — Як поводиться агент при збоях upstream-залежностей?
  • Поведінка в деградованому режимі — Що відбувається, коли компонент системи недоступний?
  • Змагальна стійкість — Чи може система бути маніпульована через ін’єкцію промптів, отруєння даних?

Кібербезпека

Основні проблеми кібербезпеки для AI-агентів:

  1. Ін’єкція промптів
  2. Вилучення моделі
  3. Отруєння навчальних даних
  4. Маніпуляція при виведенні

Практична реалізація

Реалізація точності

Визначте метрики точності для кожного випадку використання. Встановіть порогові значення та моніторинг. Задокументуйте докази точності в технічній документації Додатку IV.

Реалізація стійкості

Вимір стійкостіТип тестуМінімально необхідне
Граничні випадки вхідних данихГраничне тестуванняВизначена поведінка для всіх вхідних даних
Збій залежностіХаос-тестуванняЗадокументована поведінка в деградованому режимі
Змагальні вхідні даніRed team / ін’єкція промптівПротестований, задокументований залишковий ризик
Зсув розподілуShadow deploymentСповіщення моніторингу при виявленні зсуву

Реалізація кібербезпеки

Зниження ризику ін’єкції промптів. Поведінковий моніторинг. Управління доступом і ізоляція — принцип найменших привілеїв.

Зобов’язання щодо тестування

Тестування повинно включати:

  1. Тестування перед розгортанням
  2. Змагальне тестування (red teaming, ін’єкція промптів)
  3. Аналіз продуктивності за підгрупами
  4. Аналіз режимів збою та документація
  5. Безперервний моніторинг після розгортання

Вимоги до обробки помилок

Кожен тип помилки повинен мати визначений обробник. Обробка помилок повинна бути протестована. Помилки повинні бути зафіксовані. Резервна поведінка повинна бути безпечною — при невизначеності ескалація або відмова.

Часті запитання

П: Чи вимагає стаття 15 конкретного порогу точності?

Ні. «Відповідної» точності — стандарту, що залежить від контексту.

П: Чи вимагають оновлення моделі від нашого провайдера повторного тестування за статтею 15?

Так. Оновлення моделі можуть змінювати характеристики точності та стійкості.


Микола Ковтун, засновник Infracortex AI Studio. Шар управління Cortex генерує докази, необхідні для демонстрації відповідності статті 15. Забронюйте 30-хвилинний дзвінок для оцінки прогалин за статтею 15.

Дивіться також: EU AI Act Стаття 9: безперервне управління ризиками | EU AI Act Стаття 12: вимоги до журналювання | Спостережуваність AI-агентів vs управління

Cortex build: 0.1.35-260423

Nikola Kovtun
Nikola Kovtun
AI Knowledge Architect, засновник Infracortex
Почати

Дізнайтеся, де AI заощадить вам найбільше часу

Почніть з діагностики AI-системи. 1-2 дні, від $500, без зобов'язань. Ви отримаєте структурований звіт з вашими головними можливостями.

Замовити діагностику Від $500 · 1-2 дні · Без зобов'язань