ai-governanceeu-ai-acteu-ai-act-human-oversightcompliance

EU AI Act Стаття 14: побудова практичного нагляду людини

Nikola Kovtun · · 4 хв читання
EU AI Act Стаття 14: побудова практичного нагляду людини

«У нас є нагляд людини». Це твердження з’являється майже в кожній відповіді на вимоги відповідності щодо AI-систем. У більшості випадків це означає: хтось у компанії теоретично може втрутитися, якщо щось піде не так.

Стаття 14 EU AI Act має вужче, більш вимогливе визначення. Нагляд повинен бути ефективним, вбудованим у дизайн системи та задокументованим. Здатність людини втрутитися повинна бути реальною та практичною — а не теоретичною.

Розрив між «у нас є нагляд» і «ми відповідаємо статті 14» — це місце, де більшість AI-розгортань у регульованих галузях не дотягують.

TL;DR

  • Стаття 14 вимагає, щоб системи AI високого ризику були розроблені з можливістю ефективного нагляду з боку людини
  • Нагляд повинен бути можливим під час роботи — а не лише постфактум
  • Особи, що здійснюють нагляд, повинні вміти розуміти, відстежувати, інтерпретувати, втручатись і скасовувати
  • Автоматичні рішення з високим ризиком без значущого нагляду людини можуть порушувати статтю 14
  • Нагляд за статтею 14 повинен бути задокументований — хто здійснює, яким чином, з якими повноваженнями

Що вимагає стаття 14

Стаття 14 визначає п’ять функціональних вимог до нагляду людини:

  1. Розуміти та інтерпретувати вихідні дані — система повинна виробляти зрозумілі вихідні дані з інтерпретованим обґрунтуванням
  2. Відстежувати роботу — поточний моніторинг, а не лише періодична перевірка
  3. Виявляти аномалії, несправності або несподівану продуктивність — з визначеними базовими лініями
  4. Втручатись і зупиняти — реальна, а не теоретична здатність
  5. Скасовувати вихідні дані — до того, як рішення набуває чинності

Що означає «ефективний» нагляд

Ефективний нагляд вимагає:

Доступу в потрібний час. Людина повинна мати можливість переглянути рішення з високим ризиком до того, як воно набуде чинності.

Інтерпретованих вихідних даних. Перевіряючий, який не може зрозуміти, що зробила AI-система або чому, не може ефективно її контролювати.

Реальних повноважень на скасування. Вбудованих у робочий процес, а не лише технічно можливих.

Визначених ролей нагляду. Хто несе відповідальність за нагляд? За якими рішеннями? В які часові періоди?

Реалізація відповідності статті 14 для AI-агентів

Паттерн проектування: шлюзи нагляду перед виконанням

Найбільш відповідний статті 14 паттерн для рішень з високим ризиком — нагляд перед виконанням: агент виробляє рекомендацію, людина переглядає та схвалює або скасовує, і лише тоді виконання продовжується.

Вимоги до реалізації:

  • Черга ескалації з чіткими SLA для перевірки людиною
  • Інтерпретоване обґрунтування рішення для перевіряючого
  • Явна дія схвалення або скасування до продовження виконання
  • Повний audit trail, включно з рішенням людини

Паттерн проектування: нагляд після виконання з можливістю скасування

Для менш значущих рішень у системі з високим ризиком — якщо рішення може бути скасоване без непропорційної шкоди, і вікно моніторингу достатньо коротке.

Паттерн проектування: автоматизований нагляд з ескалацією до людини

Для великообсягних рішень — якщо конституційні правила перевірені людьми, граничні випадки запускають ескалацію, самі правила відстежуються.

Тип рішенняРівень ризикуРекомендований паттерн нагляду
Значне, незворотне (схвалення кредиту)ВИСОКИЙШлюз перед виконанням
Значне, але зворотне (комунікація з клієнтом)СЕРЕДНІЙПісля виконання з вікном скасування
Великообсягне, регульоване політикоюНИЗЬКИЙ-СЕРЕДНІЙАвтоматизований з ескалацією

Вимоги до документації

Документ архітектури нагляду — Які рішення вимагають нагляду людини? Який механізм? Хто має повноваження нагляду?

Кваліфікації персоналу нагляду — Стаття 14 вимагає «необхідної компетентності, підготовки та повноважень».

Журнал подій нагляду — Кожне здійснення нагляду людиною повинно бути зафіксовано.

Відстеження частоти скасувань — Нульова частота скасувань може вказувати на номінальний, а не ефективний нагляд.

Часті запитання

П: Чи може процес перевірки людиною, що виконується після AI-рішень, відповідати статті 14?

Якщо рішення незворотні — ні. Для зворотних рішень з короткими вікнами скасування — так, якщо механізм скасування практичний.

П: Яку кваліфікацію повинен мати персонал нагляду?

Компетентність і підготовка визначаються характером системи. Повноваження означають, що у людини є реальна влада скасувати рішення.

П: Чи виконує наша аудиторська команда функцію нагляду людини?

Аудит ретроспективний. Нагляд за статтею 14 операційний — він відбувається під час роботи AI-системи. Вам потрібні операційні ролі нагляду, відмінні від аудиту.


Микола Ковтун, засновник Infracortex AI Studio. Cortex реалізує шлюзи ескалації, що відповідають статті 14, для робочих процесів AI-агентів. Забронюйте дзвінок для розробки архітектури нагляду.

Дивіться також: EU AI Act Стаття 9: безперервне управління ризиками | EU AI Act Стаття 12: вимоги до журналювання | Що таке шар підзвітності AI-агентів?

Cortex build: 0.1.35-260423

Nikola Kovtun
Nikola Kovtun
AI Knowledge Architect, засновник Infracortex
Почати

Дізнайтеся, де AI заощадить вам найбільше часу

Почніть з діагностики AI-системи. 1-2 дні, від $500, без зобов'язань. Ви отримаєте структурований звіт з вашими головними можливостями.

Замовити діагностику Від $500 · 1-2 дні · Без зобов'язань