Imaginez connecter des milliers de puces d’IA puissantes dispersées dans des dizaines d’armoires serveur et les faire fonctionner ensemble comme s’il s’agissait d’un seul ordinateur massif. C’est exactement ce que Huawei a démontré lors de HUAWEI CONNECT 2025, où l’entreprise a dévoilé une avancée dans l’architecture de l’infrastructure d’IA qui pourrait remodeler la façon dont le monde construit et met à l’échelle les systèmes d’intelligence artificielle.
Au lieu des approches traditionnelles où les serveurs individuels fonctionnent quelque peu indépendamment, la nouvelle technologie SuperPoD de Huawei crée ce que les cadres de l’entreprise décrivent comme une seule machine logique composée de milliers d’unités de traitement séparées, leur permettant, ou elle, de « apprendre, penser et raisonner comme un seul ».
Les implications vont au-delà des spécifications techniques impressionnantes, représentant un changement dans la façon dont la puissance de calcul de l’IA peut être organisée, mise à l’échelle et déployée dans les industries.
La fondation technique : UnifiedBus 2.0
Au cœur de l’approche de l’infrastructure de Huawei se trouve UnifiedBus (UB). Yang Chaobin, Directeur du Conseil d’Administration de Huawei et PDG du Groupe d’Affaires ICT, a expliqué que « Huawei a développé l’architecture révolutionnaire SuperPoD basée sur notre protocole d’interconnexion UnifiedBus. L’architecture interconnecte profondément les serveurs physiques afin qu’ils puissent apprendre, penser et raisonner comme un seul serveur logique. »
Les spécifications techniques révèlent l’ampleur de cette réalisation. Le protocole UnifiedBus aborde deux défis qui, historiquement, ont limité le calcul de l’IA à grande échelle : la fiabilité des communications à longue distance et la latence de bande passante. Les connexions cuivrées traditionnelles offrent une bande passante élevée mais seulement sur de courtes distances, connectant généralement peut-être deux armoires.
Les câbles optiques prennent en charge une portée plus longue mais souffrent de problèmes de fiabilité qui deviennent plus problématiques plus la distance et l’échelle sont importantes. Eric Xu, Vice-Président et Président tournant de Huawei, a déclaré que résoudre ces défis de connectivité fondamentaux était essentiel pour la stratégie d’infrastructure d’IA de l’entreprise.
Xu a détaillé les solutions de rupture en termes du modèle OSI : « Nous avons intégré la fiabilité dans chaque couche de notre protocole d’interconnexion, de la couche physique et de la couche de liaison de données, jusqu’aux couches réseau et de transmission. Il y a une détection de panne de niveau 100 ns et un commutation de protection sur des chemins optiques, rendant toute déconnexion intermittente ou défaut des modules optiques imperceptible au niveau de l’application. »
Architecture SuperPoD : Échelle et performance
L’Atlas 950 SuperPoD représente la mise en œuvre phare de cette architecture, comprenant jusqu’à 8 192 puces Ascend 950DT dans une configuration que Xu a décrite comme offrant « 8 EFLOPS en FP8 et 16 EFLOPS en FP4. Sa bande passante d’interconnexion sera de 16 Po/s. Cela signifie qu’un seul Atlas 950 SuperPoD aura une bande passante d’interconnexion plus de 10 fois supérieure à la bande passante Internet mondiale totale en pic. »
Les spécifications vont au-delà des améliorations incrémentielles. L’Atlas 950 SuperPoD occupe 160 armoires dans 1 000m2, avec 128 armoires de calcul et 32 armoires de communication reliées par des interconnexions entièrement optiques. La capacité mémoire du système atteint 1 152 To et maintient ce que Huawei affirme être une latence de 2,1 microseconde dans l’ensemble du système.
Plus tard dans la chaîne de production, le SuperPoD Atlas 960 sera lancé, qui devrait intégrer 15 488 puces Ascend 960 dans 220 armoires couvrant 2 200m2. Xu a déclaré qu’il offrira « 30 EFLOPS en FP8 et 60 EFLOPS en FP4, et sera livré avec 4 460 To de mémoire et une bande passante d’interconnexion de 34 Po/s. »
Au-delà de l’IA : Applications de calcul à usage général
Le concept SuperPoD s’étend au-delà des charges de travail d’IA dans le calcul à usage général à travers le TaiShan 950 SuperPoD. Basé sur les processeurs Kunpeng 950, ce système adresse les défis des entreprises en remplaçant les anciens mainframes et ordinateurs de gamme moyenne.
Xu a positionné cela comme particulièrement pertinent pour le secteur financier, où « le TaiShan 950 SuperPoD, combiné au GaussDB distribué, peut servir d’alternative idéale, et remplacer une fois pour toutes les mainframes, les ordinateurs de gamme moyenne et les serveurs de base de données Oracle Exadata. »
Stratégie d’architecture ouverte
Peut-être le plus significatif pour le marché plus large de l’infrastructure d’IA, Huawei a annoncé la publication des spécifications techniques de UnifiedBus 2.0 en tant que normes ouvertes. La décision reflète à la fois le positionnement stratégique et les contraintes pratiques.
Xu a reconnu que « le continent chinois sera en retard dans les nœuds de processus de fabrication de semi-conducteurs pendant un temps relativement long » et a souligné que « la puissance de calcul durable ne peut être atteinte qu’avec des nœuds de processus pratiquement disponibles. »
Yang a présenté l’approche ouverte comme un développement d’écosystème : « Nous nous engageons dans notre approche de matériel et de logiciel ouverts qui aidera davantage de partenaires à développer leurs propres solutions SuperPoD basées sur des scénarios industriels. Cela accélérera l’innovation des développeurs et favorisera un écosystème florissant. »
L’entreprise s’engage à mettre en open source des composants matériels et logiciels, avec des composants matériels comprenant des modules NPU, des serveurs en lame refroidis à l’air et à l’eau, des cartes d’IA, des cartes CPU et des cartes cascade. Pour les logiciels, Huawei s’est engagé à ouvrir complètement les outils de compilation CANN, les kits d’application de la série Mind et les modèles de base openPangu d’ici le 31 décembre 2025.
Déploiement sur le marché et impact sur l’écosystème
Le déploiement dans le monde réel valide ces affirmations techniques. Plus de 300 unités Atlas 900 A3 SuperPoD ont déjà été expédiées en 2025, qui ont été déployées pour plus de 20 clients de plusieurs secteurs, y compris Internet, finance, opérateur, électricité et manufacturier.
Les implications pour le développement de l’infrastructure d’IA en Chine sont importantes. En créant un écosystème ouvert autour de la technologie domestique, Huawei relève les défis de la construction d’une infrastructure d’IA compétitive dans les paramètres définis par la fabrication et la disponibilité de semi-conducteurs contraints. Son approche permet une participation plus large de l’industrie dans le développement de solutions d’infrastructure d’IA sans avoir besoin d’accéder aux noeuds de processus les plus avancés.
Pour le marché mondial de l’infrastructure d’IA, la stratégie d’architecture ouverte de Huawei introduit une alternative à l’approche de matériel et de logiciel propriétaire fortement intégrée dominante parmi les concurrents occidentaux. Que l’écosystème proposé par Huawei puisse atteindre des performances comparables et maintenir sa viabilité commerciale reste à démontrer à grande échelle.
En fin de compte, l’architecture SuperPoD représente plus qu’une avancée incrémentielle pour le calcul de l’IA. Huawei propose un changement fondamental dans la façon dont les ressources de calcul massives sont connectées, gérées et mises à l’échelle. La publication en open source de ses spécifications et éléments testera si le développement collaboratif peut accélérer l’innovation de l’infrastructure d’IA dans un écosystème de partenaires. Cela a le potentiel de remodeler la dynamique concurrentielle sur le marché mondial de l’infrastructure d’IA.


