
Европейский союз официально включил требование по оценке безопасности ИИ в Директиву CE по машиностроению (2006/42/EC), вступающее в силу с 9 мая 2026 года. Это обновление напрямую затрагивает производителей оборудования с возможностями автономного принятия решений, адаптивного управления или сотрудничества человека и машины — включая интеллектуальную строительную технику, автономных роботов для стройплощадок и вилочные погрузчики на базе ИИ. Это изменение указывает на критически важный сдвиг в ожиданиях по оценке соответствия для экспортёров, особенно базирующихся в Китае, и заслуживает пристального внимания со стороны участников цепочки поставок в сферах машиностроения, промышленной автоматизации и экспортного соответствия.
9 мая 2026 года ЕС подтвердил официальное включение обязательного модуля оценки безопасности ИИ в пересмотренную Директиву CE по машиностроению (2006/42/EC). С 1 октября 2026 года всё оборудование, включающее функции автономного принятия решений, адаптивного управления или сотрудничества человека и машины, должно подтверждать соответствие EN IEC 62443-2-4 и ISO/IEC 23894:2023. Китайские производители, экспортирующие такое оборудование в ЕС, должны завершить пересмотр технической документации (TCF) и представить отчёты о сторонней оценке рисков ИИ до конца Q3 2026.
Эти компании сталкиваются с прямыми юридическими обязательствами в рамках пересмотренной директивы. Их продукция — например, вилочные погрузчики с расписанием на базе ИИ или самостоятельно навигирующие строительные роботы — теперь подпадает под новые требования соответствия. Воздействие в первую очередь проявляется в увеличении времени вывода на рынок из-за дополнительного тестирования, реструктуризации документации и координации внешнего аудита.
От поставщиков встроенных подсистем ИИ, блоков управления в реальном времени или модулей восприятия могут потребовать предоставить доказательства соответствия ISO/IEC 23894:2023 и EN IEC 62443-2-4. Их влияние на соответствие конечного продукта возрастает, что потенциально может привести к пересмотру контрактов или появлению новых протоколов обмена техническими данными.
Компании, поддерживающие маркировку CE — включая нотифицированные органы, консультантов по техническому файлу и специалистов по оценке рисков ИИ, — столкнутся с ростом спроса на услуги, специально ориентированные на новый модуль ИИ. Ожидается увеличение объёмов работ, связанных с реконструкцией TCF, анализом опасностей для поведения, управляемого ИИ, и картированием прослеживаемости между логикой ИИ и функциями безопасности.
Детали реализации директивы — особенно толкование терминов ‘автономное принятие решений’ и ‘сотрудничество человека и машины’ — всё ещё требуют уточнения. Заинтересованным сторонам следует отслеживать обновления от Совместного исследовательского центра (JRC) Европейской комиссии и нотифицированных органов ЕС, публикующих пояснительные документы по ИИ в преддверии Q3 2026.
Продукция с замкнутым контуром адаптивного управления (например, роботизированные манипуляторы, регулирующие усилие в реальном времени) или с неконтролируемым перепланированием задач (например, автономные планировщики флота) с наибольшей вероятностью подпадёт под строгое применение модуля ИИ. Компаниям следует провести внутреннее определение охвата, чтобы выявить, какие модели требуют полной проверки по EN IEC 62443-2-4 и ISO/IEC 23894:2023.
Объявление от 9 мая 2026 года подтверждает официальное принятие, но правоприменение начинается 1 октября 2026 года. До этого момента органы рыночного надзора не уполномочены отклонять декларации CE исключительно на основании оценки ИИ. Однако размещение несоответствующей продукции после 1 октября влечёт юридическую ответственность; поэтому подготовку следует рассматривать как операционную, а не просто стратегическую задачу.
TCF теперь должны включать оценки рисков, специфичные для ИИ, матрицы прослеживаемости, связывающие выходные данные ИИ с функциями, связанными с безопасностью, а также записи валидации поведения модели ИИ при пограничных сценариях. Производителям следует начать проверку существующих TCF и взаимодействие с поставщиками компонентов для получения обновлённых спецификаций интерфейсов и документации о происхождении данных обучения ИИ.
Очевидно, что это обновление представляет собой регуляторный сигнал, а не результат немедленного правоприменения — оно устанавливает определённые сроки (крайний срок Q3 2026 для документации, 1 октября 2026 года для вывода на рынок), но оставляет пространство для интерпретации в отношении охвата и методологии. Анализ показывает, что ЕС приводит сертификацию оборудования в более тесное соответствие с более широкими принципами AI Act, особенно в части прозрачности и гарантий на основе оценки рисков. С отраслевой точки зрения речь идёт не столько о введении совершенно новых концепций безопасности, сколько о формализации ответственности за поведение ИИ в рамках устоявшихся механизмов механической безопасности. Ситуация требует постоянного внимания, поскольку будущие поправки могут распространить модуль ИИ на уровни автоматизации с меньшим риском или ввести требования к периодической переоценке.
Это развитие подчёркивает структурный сдвиг: функциональность ИИ больше не рассматривается как отдельная программная функция, а как неотъемлемая часть архитектуры безопасности машины. Для китайских производителей своевременная адаптация TCF — это не просто процедура, а показатель готовности соответствовать развивающимся определениям ‘безопасной автономности’ на регулируемых рынках. Текущее понимание должно рассматривать это как обязательный этап соблюдения требований с чёткими сроками, а не как предварительное предложение или отдалённую перспективу.
Источник: Официальное объявление ЕС от 9 мая 2026 года; упомянутые стандарты: EN IEC 62443-2-4 и ISO/IEC 23894:2023. Примечание: Дальнейшие разъяснения по внедрению от нотифицированных органов ЕС остаются в стадии наблюдения и пока не доступны публично.
Отправить запрос
Мы приветствуем ваше сотрудничество и будем развиваться вместе с вами.