ЕС внесет поправки в Приложение B стандарта EN ISO 12100:2026, добавив требования безопасности искусственного интеллекта.

Время:May 08, 2026
ЕС внесет поправки в Приложение B стандарта EN ISO 12100:2026, добавив требования безопасности искусственного интеллекта.

7 мая 2026 года Европейский комитет по стандартизации (CEN/TC 114) опубликовал проект пересмотра EN ISO 12100:2026, вводящий новые обязательные требования к оценке рисков оборудования на основе ИИ в Приложении B. Это изменение напрямую затрагивает производителей и экспортеров интеллектуальных станков, коллаборативных роботов и оборудования производственных линий с интеграцией ИИ, ориентированных на рынок ЕС — особенно тех, кто использует адаптивные системы ЧПУ или устройства обработки с визуальным наведением.

Обзор события

Рабочая группа CEN/TC 114 выпустила проект пересмотра EN ISO 12100:2026 7 мая 2026 года. Обновление сосредоточено на Приложении B и добавляет методологические указания по оценке рисков оборудования на основе решений ИИ — в частности, адаптивных систем числового программного управления и оборудования для обработки материалов с визуальным наведением. Оно требует, чтобы производители предоставляли документацию по объяснимости алгоритмов и отчеты о картировании режимов отказа. Пересмотренный стандарт планируется принять в качестве официального гармонизированного стандарта в рамках Директивы ЕС по машинному оборудованию в Q3 2026.

Затронутые отрасли

Производители оборудования, ориентированные на экспорт

Производители, экспортирующие в ЕС интеллектуальные станки, коллаборативных роботов или производственные линии с интеграцией ИИ, столкнутся с прямым влиянием. Теперь соответствие требованиям требует технической документации, охватывающей логику принятия решений ИИ и поведение при отказах — выходя за рамки традиционного анализа механических опасностей. Заявки на маркировку CE, поданные после Q3 2026, должны отражать эти новые положения Приложения B.

Системные интеграторы и поставщики модулей ИИ

Поставщикам, предоставляющим модули ИИ (например, адаптивные контроллеры реального времени или стеки навигации на основе машинного зрения), встроенные в оборудование, поставляемое в ЕС, потребуется поддерживать OEM-производителей отслеживаемой и интерпретируемой алгоритмической документацией. В их контрактные обязательства теперь может входить картирование режимов отказа, согласованное с обновленной структурой оценки рисков EN ISO 12100.

Органы сертификации CE и нотифицированные органы

Нотифицированным органам, оценивающим соответствие CE для оборудования с поддержкой ИИ, потребуется обновленная компетенция в области оценки алгоритмической безопасности. Объем их проверки расширяется и включает верификацию документации по объяснимости и охвату режимов отказа — что требует развития внутренних возможностей до перехода в Q3 2026.

Что предприятиям и специалистам следует отслеживать и делать уже сейчас

Отслеживать сроки официальной публикации и переходные механизмы

Следите за официальным объявлением CEN о дате окончательного принятия и возможном льготном периоде для ранее выданных сертификаций. Статус проекта означает, что текущие заявки CE остаются действительными по прежним правилам EN ISO 12100:2010/2012 — однако подготовка должна быть приведена в соответствие с ожидаемой датой вступления в силу в Q3 2026.

Определить высокорисковые категории продукции, требующие немедленного обновления технической документации

Сосредоточьтесь на продукции, включающей автономное принятие решений (например, самооптимизирующиеся параметры ЧПУ, динамическое перепланирование траектории в коботах). В приоритетном порядке разрабатывайте краткие описания объяснимости алгоритмов и сопоставляйте каждую функцию ИИ с потенциальными режимами отказа и соответствующими механическими опасностями.

Разграничивать регуляторный сигнал и подлежащее исполнению обязательство

Текущий проект отражает официальное направление регулирования, но пока не является обязательным законом. Однако его согласованность с Регламентом по машинному оборудованию (EU) 2023/1230 свидетельствует о твердом намерении. Рассматривайте его как де-факто ориентир для предстоящих аудитов — особенно там, где функциональность ИИ влияет на связанные с безопасностью функции управления.

Инициировать межфункциональную координацию между командами R&D, compliance и технической документации

Назначьте ответственность за подготовку файлов по объяснимости алгоритмов и отчетов о картировании режимов отказа на раннем этапе цикла проектирования — а не как шаг сертификации после завершения разработки. Обеспечьте, чтобы контроль версий связывал релизы моделей ИИ с соответствующими обновлениями документации по безопасности.

Редакционное наблюдение / Отраслевая перспектива

Очевидно, что эта поправка знаменует структурный сдвиг: функциональность ИИ больше не рассматривается как дополнение в виде «черного ящика», а как неотъемлемый, поддающийся оценке компонент архитектуры безопасности оборудования. Анализ показывает, что требование документации по объяснимости и картирования режимов отказа представляет собой сближение инженерии безопасности программного обеспечения (например, ISO/IEC/IEEE 12207) с традиционной оценкой рисков машинного оборудования — прецедент, который, вероятно, повлияет и на другие регионы. С отраслевой точки зрения это не столько внезапный срок соблюдения требований, сколько формализация формирующейся передовой практики. Его значимость заключается не только в сроках правоприменения, но и в том, как оно переопределяет границу между «машиной» и «интеллектуальной системой» в рамках нормативной базы ЕС.

Заключение
Этот пересмотр сигнализирует об институциональной интеграции специфической для ИИ ответственности за безопасность в основные стандарты ЕС для машинного оборудования. Он не вводит новых юридических обязательств сверх уже существующей сферы действия Регламента по машинному оборудованию, но реализует их через конкретные, поддающиеся аудиту требования к документации. В настоящее время его лучше всего понимать как кодифицированное ожидание — такое, которое смещает должную осмотрительность от общей функциональной безопасности к проверяемой прозрачности поведения ИИ.

Источники информации
Основной источник: Проект пересмотра EN ISO 12100:2026 CEN/TC 114, опубликованный 7 мая 2026 года.
Примечание: Дата окончательного принятия, переходные положения и официальный статус гармонизации пока ожидают подтверждения со стороны CEN и Европейской комиссии — рекомендуется продолжать мониторинг.