Huawei выпустила Flex:ai — open source-платформу для оркестрации GPU и NPU-ускорителей, которая, по заявлению компании, повышает загрузку чипов примерно на 30% и помогает компенсировать санкции на поставки топовых GPU.
В конце ноября 2025 года компания Huawei представила программную платформу Flex:ai — инструмент для управления кластером ИИ-ускорителей, который должен повысить эффективность использования доступных вычислительных ресурсов. О запуске продукта написали, в частности, South China Morning Post, Tom’s Hardware и ряд профильных медиа.
Flex:ai построена поверх Kubernetes и позволяет «нарезать» GPU и NPU-ускорители на несколько виртуальных экземпляров, распределяя задачи разного размера между картами и узлами кластера. Huawei заявляет, что платформа увеличивает среднюю загрузку чипов примерно на 30 % за счёт более плотного планирования задач, а в маркетинговых материалах говорится, что программные оптимизации позволяют «моделировать производительность, эквивалентную чипам, в тысячу раз более быстрым, чем решения Nvidia». Эта формулировка отражает позицию компании и не подтверждена независимыми бенчмарками.
По данным Huawei, Flex:ai поддерживает как собственные NPU-ускорители Ascend, так и стандартные GPU, а исходный код должен быть доступен в открытом виде для разработчиков через экосистему ModelEngine. Платформа позиционируется как один из инструментов, который должен помочь Китаю нарастить реальные ИИ-мощности в условиях экспортных ограничений на современные GPU Nvidia и других западных производителей.