EU AI Act для бизнеса

Проведите классификацию ваших систем ИИ по категориям риска ЕС до конца 2024 года. Законопроект делит ИИ на четыре уровня: неприемлемый, высокий, ограниченный и минимальный риск. Для проектов из первых двух групп с 2026 года введут штрафы до €35 млн или 7% глобального оборота компании. Пример: системы распознавания эмоций в HR или автоматический скрининг резюме автоматически попадут в «высокий риск».

Бизнесам запретят применять ИИ для биометрической категоризации на основе расы, религии или сексуальной ориентации. Реализация таких систем – даже в пилотных проектах – станет основанием для санкций через 6 месяцев после вступления закона в силу. Исключений для стартапов и малого бизнеса не предусмотрено.

Генеративные модели (например, LLM) обязаны раскрывать использование синтетического контента. С 2027 года разработчики ChatGPT и аналогичных сервисов будут публиковать детали обучающих данных и энергопотребления. Первая версия технической документации должна быть готова к середине 2025 года – начните аудит данных уже сейчас.

Классификация систем ИИ: как определить уровень риска своего продукта

4 категории систем ИИ по уровню риска:

  1. Недопустимый риск

    • Примеры: системы для социального скоринга граждан, манипуляции поведением детей, удаленная биометрическая идентификация в публичных пространствах.
    • Действия: немедленно прекратить разработку или внедрение таких систем – они запрещены на территории ЕС с 2024 года.
  2. Высокий риск

    • Примеры: ИИ в образовании, медицинской диагностике, подборе сотрудников, управлении критической инфраструктурой.
    • Действия: пройти процедуру конформности (CE-маркировка), внедрить ведение технической документации, обеспечить человеческий надзор.
  3. Ограниченный риск

    • Примеры: чат-боты, системы генерации контента, эмоциональный анализ голоса.
    • Действия: внедрить прозрачность (явная маркировка взаимодействия с ИИ), предоставить пользователю право отключить систему.
  4. Минимальный риск

    • Примеры: спам-фильтры, рекомендательные алгоритмы без персональных данных.
    • Действия: регистрация не требуется, но рекомендуется следовать этическим принципам ЕС.

Инструменты для самооценки:

  • Официальный чек-лист ЕС
  • Матрица оценки влияния на права человека (оценка 15 параметров, включая автономность решений и масштаб воздействия)

Для продуктов в зоне высокого риска с 2025 года потребуются: техническая документация (80+ параметров), система управления рисками по ISO 31000, аудиты третьей стороной.

Что сделать сегодня:

1. Создать перечень всех алгоритмов ИИ в продуктах.

2. Провести кросс-проверку каждой системы по Приложению III.

3. Назначить ответственного за соответствие требованиям (рекомендуется юрист + инженер).

Сроки и штрафы: какие этапы внедрения нормативов нельзя пропустить

Компаниям, разрабатывающим или внедряющим ИИ-решения в ЕС, необходимо завершить адаптацию к EU AI Act до 2026 года. Регламент вступит в силу через 20 дней после публикации в Официальном журнале ЕС, а на полное применение требований отведено 24 месяца. Нарушения повлекут штрафы:

  • до €35 млн или 7% глобального оборота – за использование запрещенных ИИ-систем (например, с социальным скорингом);
  • до €15 млн или 3% оборота – за игнорирование требований к high-risk ИИ;
  • до €7,5 млн или 1,5% оборота – за предоставление недостоверной информации регуляторам.

Ключевые этапы для бизнеса:

  • Классификация систем ИИ (до конца 2024): определить, попадает ли продукт под категории «запрещенный», «high-risk», «ограниченного риска» или «минимального риска».
  • Внедрение риск-менеджмента (до Q2 2025): для high-risk ИИ – провести оценку кибербезопасности, обеспечить человеческий надзор, вести автоматизированное логирование данных.
  • Обновление документации (до Q3 2025): предоставить техдокументацию, инструкции для пользователей и декларацию соответствия для high-risk ИИ.
  • Тестирование и валидация (до Q1 2026): пройти оценку соответствия в аккредитованных лабораториях, если ИИ используется в медицинской, образовательной или правовой сферах.
  • Регистрация в ЕС (до Q2 2026): внести high-risk системы в единую базу EU Database.

Компаниям с ИИ в категории «минимального риска» (например, чат-боты) достаточно добавить прозрачное уведомление о взаимодействии с ИИ до конца 2025 года. Игнорирование классификации приравнивается к нарушениям high-risk категории.

26.06.2025ТехнологииБизнес