Lors du Huawei Connect 2025 la semaine dernière, le développement de l’IA open-source a été mis en avant, avec Huawei détaillant les échéanciers de mise en œuvre et les spécificités techniques pour rendre l’intégralité de sa pile logicielle AI accessible au public d’ici la fin de l’année. Les annonces ont été accompagnées de contextes importants pour les développeurs : une reconnaissance franche des frictions passées, des engagements spécifiques sur les composants qui seront publiés, et des détails sur la manière dont le logiciel s’intégrera dans les flux de travail et les systèmes d’exploitation existants.
Le président délégué et président tournant de Huawei, Eric Xu, a ouvert son discours liminaire avec une franchise inhabituelle sur les défis auxquels les développeurs ont été confrontés avec l’infrastructure Ascend. En référence à l’impact de la sortie de DeepSeek-R1 plus tôt cette année, Xu a noté : « Entre janvier et le 30 avril, nos équipes de R&D en IA ont travaillé en étroite collaboration pour s’assurer que les capacités d’inférence de nos puces Ascend 910B et 910C puissent répondre aux besoins des clients. » Suite à des sessions de retour d’informations des clients, Xu a déclaré : « Nos clients ont soulevé de nombreux problèmes et attentes qu’ils ont eus avec Ascend. Et ils continuent de nous donner de grandes suggestions. »
La reconnaissance des points de douleur des développeurs a donné un contexte aux engagements complets en open-source annoncés lors du Sommet de Développement de l’Industrie Informatique Ascend le 5 août 2025 et renforcés par Xu lors du Huawei Connect.
Pour les développeurs qui ont eu du mal avec les outils, la documentation ou la maturité de l’écosystème Ascend, cette évaluation franche signale une prise de conscience des écarts entre les capacités techniques de la plateforme et son utilisation pratique. La stratégie open-source semble conçue pour adresser directement ces points de friction en permettant des contributions communautaires, de la transparence et des améliorations externes.
L’engagement le plus significatif sur le plan technique implique CANN (Compute Architecture for Neural Networks), l’outil fondamental de Huawei qui se situe entre les frameworks d’IA et le matériel Ascend. Lors du sommet d’août, Xu a spécifié : « Pour CANN, nous allons ouvrir les interfaces du compilateur et de l’ensemble d’instructions virtuel, et rendre pleinement open-source les autres logiciels. » Cette approche hiérarchisée différencie les composants recevant un traitement open-source complet de ceux pour lesquels Huawei fournira des interfaces ouvertes avec des implémentations potentiellement propriétaires. Le compilateur et l’ensemble d’instructions virtuel – des couches de traduction importantes qui convertissent le code de haut niveau en instructions exécutables par le matériel – auront des interfaces ouvertes. Cela signifie que les développeurs peuvent comprendre et potentiellement optimiser la manière dont leur code est compilé pour les processeurs Ascend, même si l’implémentation du compilateur lui-même reste partiellement fermée.
Le calendrier reste ferme : « Nous allons rendre open-source et accessible avec CANN (basé sur la conception existante d’Ascend 910B/910C) d’ici le 31 décembre 2025. » La spécification « basée sur la conception existante d’Ascend 910B/910C » clarifie que la publication open-source reflétera les matériels de génération actuelle plutôt que les futures architectures de puces.
Au-delà de la couche fondamentale CANN, Huawei s’est engagé à ouvrir ce avec quoi les développeurs interagissent quotidiennement : « Pour nos kits d’habilitation d’applications de la série Mind et nos chaînes d’outils, nous allons rendre entièrement open-source d’ici le 31 décembre 2025 », a déclaré Xu lors du Huawei Connect, renforçant l’engagement pris lors du Sommet de Développement de l’Industrie Informatique Ascend le 5 août 2025.
La série Mind englobe l’environnement de développement pratique – les SDK, les bibliothèques, les outils de débogage, les profileurs et les utilitaires que les développeurs utilisent pour construire des applications d’IA. Contrairement à l’approche hiérarchisée de CANN avec des interfaces ouvertes pour certains composants, la série Mind voit un engagement global pour un open-source complet.
Cela signifie que toute la chaîne d’outils de la couche d’application devient inspectable, modifiable et extensible par la communauté. Les outils de débogage pourraient être améliorés avec des fonctionnalités nécessaires, les bibliothèques peuvent être optimisées pour des cas d’utilisation spécifiques, et les utilitaires peuvent être enveloppés dans des interfaces plus ergonomiques. En bref, l’écosystème de développement évoluera grâce aux contributions de la communauté plutôt que de dépendre des mises à jour du fournisseur.
Cependant, l’annonce n’a pas spécifié quels outils composent spécifiquement la série Mind, quelles langues de programmation ils supportent, ou à quel point la documentation sera complète. Les développeurs évaluant s’ils doivent investir du temps dans la plateforme devront évaluer la complétude de la chaîne d’outils une fois que la publication de décembre arrivera.
Huawei s’est également engagé à « rendre pleinement open-source nos modèles de base openPangu. » Cela positionne Huawei dans l’espace des modèles de base open-source aux côtés de la série Llama de Meta, des offres de Mistral AI et de diverses autres initiatives qui s’appuient sur l’implication de la communauté.
L’annonce n’a fourni aucun détail sur les capacités d’openPangu, les comptages de paramètres, les données d’entraînement ou les termes de licence. L’ouverture des modèles de base soulève des questions au-delà des licences, et quelles restrictions existeront sur l’utilisation commerciale. Quels ensembles de données ont été utilisés pour l’entraînement, et quels biais ou limitations chaque modèle présente-t-il ? Le modèle peut-il être affiné et redistribué ? Ces questions restent à résoudre, du moins publiquement.
Pour les développeurs, les modèles de base open-source fournissent des points de départ pour des applications spécifiques à un domaine sans nécessiter les ressources de calcul massives nécessaires pour l’entraînement à partir de zéro. Cependant, la qualité du modèle, la flexibilité de la licence et la documentation disponible déterminent l’utilité pratique. La publication de décembre révélera si les modèles openPangu représentent des alternatives compétitives aux options open-source établies.
Un détail d’implémentation pratique qui est apparu lors du Huawei Connect 2025 aborde une barrière commune à l’adoption de nouvelles infrastructures d’IA : la compatibilité du système d’exploitation. Huawei a annoncé que « Huawei a rendu open-source l’ensemble du composant UB OS, afin que son code puisse être intégré dans les communautés de systèmes d’exploitation open-source en amont comme openEuler. » L’approche d’intégration offre une flexibilité inhabituelle. Selon les annonces : « Les utilisateurs peuvent intégrer une partie ou l’ensemble du code source du composant UB OS dans leurs systèmes d’exploitation existants, pour prendre en charge une itération indépendante et une maintenance des versions. Les utilisateurs peuvent également intégrer l’ensemble du composant dans leurs systèmes d’exploitation existants comme un plug-in pour garantir qu’il peut évoluer en phase avec les communautés open-source. »
La conception modulaire signifie que les organisations utilisant Ubuntu, Red Hat Enterprise Linux, ou d’autres distributions ne sont pas obligées de migrer vers des systèmes d’exploitation spécifiques à Huawei. Le composant UB OS – qui gère la gestion des interconnexions SuperPod au niveau du système d’exploitation – peut être intégré dans des environnements existants. Pour les développeurs et les administrateurs système, cela réduit considérablement les frictions de déploiement.
Cependant, la flexibilité s’accompagne de responsabilités. Les organisations choisissant d’intégrer le code source du composant UB OS dans leurs propres systèmes deviennent responsables des tests, de la maintenance et des mises à jour. Huawei fournit le composant en open-source plutôt que comme un produit pris en charge pour des distributions Linux arbitraires. L’approche fonctionne bien pour les organisations ayant une forte expertise en Linux; cela peut s’avérer difficile pour ceux qui attendent un support de fournisseur clé en main.
Peut-être le facteur le plus important pour l’adoption par les développeurs est la compatibilité avec les frameworks d’IA existants. Plutôt que de forcer les développeurs à abandonner des outils familiers, Huawei construit des couches d’intégration. Selon Huawei, il « a priorisé le support des communautés open-source comme PyTorch et vLLM pour aider les développeurs à innover de manière indépendante. » La compatibilité avec PyTorch est particulièrement significative étant donné la domination de ce framework dans la recherche en IA et les déploiements en production. Si les développeurs peuvent écrire du code standard PyTorch qui s’exécute efficacement sur le matériel Ascend sans modifications importantes, la barrière à l’expérimentation diminue considérablement.
Les organisations pourraient évaluer l’infrastructure Ascend en utilisant des bases de code existantes minimisées plutôt que d’exiger des réécritures. L’intégration vLLM cible un cas d’utilisation spécifique très demandé : l’inférence optimisée des grands modèles de langage. À mesure que les organisations déploient des applications basées sur des LLM, les performances d’inférence et les coûts deviennent des facteurs importants.
Le support natif de vLLM suggère que Huawei aborde les préoccupations pratiques de déploiement plutôt que simplement les capacités de recherche. Cependant, les annonces n’ont pas détaillé la complétude d’une quelconque intégration. Une compatibilité partielle avec PyTorch qui nécessite des contournements pour certaines opérations ou qui délivre des performances sous-optimales peut s’avérer plus frustrante que les alternatives existantes. La qualité des intégrations de frameworks déterminera si elles abaissent réellement les barrières à l’adoption ou simplement créent de nouvelles catégories de problèmes de compatibilité.
La date butoir du 31 décembre 2025 pour l’open-sourcing de CANN, de la série Mind et des modèles openPangu est d’environ trois mois. La qualité de la première publication déterminera largement la réponse de la communauté. Les projets open-source qui arrivent avec une documentation incomplète, des exemples limités, des fonctionnalités manquantes, ou des outils immatures échouent souvent à attirer des contributeurs indépendamment du mérite technique sous-jacent.
Les développeurs évaluant des plateformes inconnues ont besoin de ressources d’apprentissage complètes, d’exemples fonctionnels et de chemins clairs de « Hello World » au déploiement en production. La publication de décembre représente un début plutôt qu’une culmination.
Les projets open-source réussis nécessitent un investissement soutenu au-delà de la publication initiale du code. La gestion de la communauté, la triage des problèmes, la revue et l’intégration des demandes de tirage, la maintenance de la documentation et la coordination de la feuille de route exigent tous des ressources continues. Que Huawei s’engage dans un support communautaire pluriannuel déterminera si la plateforme développe une base de contributeurs active ou devient un code abandonné avec des dépôts publics mais une activité de développement minimale.
Malgré les engagements et les échéanciers spécifiques, plusieurs détails importants sur le développement open-source de l’IA sur Ascend restent indéfinis. Le choix de licence affectera fondamentalement la manière dont les développeurs et les organisations pourront utiliser le logiciel. Les licences permissives comme Apache 2.0 ou MIT permettent une utilisation commerciale avec des restrictions minimales et autorisent des dérivés propriétaires. Les licences copyleft comme GPL exigent que les œuvres dérivées soient également open-source, ce qui affecte les modèles traditionnels de développement de produits commerciaux. Huawei n’a pas spécifié sous quelles licences les publications de décembre seront. Les structures de gouvernance globales pour les projets open-source sont également peu claires.
Y aura-t-il une fondation indépendante supervisant le développement ? Huawei acceptera-t-il des mainteneurs externes avec des privilèges de commit ? Comment seront prises les décisions sur les priorités des fonctionnalités et les feuilles de route ? Y aura-t-il un processus transparent pour accepter les contributions de la communauté ?
Les questions de gouvernance déterminent souvent si les projets attirent une véritable participation externe ou restent des initiatives contrôlées par les fournisseurs avec un code public mais une influence communautaire limitée.
Pour les développeurs et les organisations envisageant d’investir dans la plateforme de développement open-source d’IA de Huawei, les trois prochains mois offrent du temps pour la préparation et l’évaluation. Les organisations peuvent évaluer leurs besoins, déterminer si les spécifications du matériel Ascend correspondent aux caractéristiques de leurs charges de travail, et préparer les équipes à une éventuelle adoption de la plateforme.
La publication du 31 décembre fournira des matériaux concrets pour une évaluation pratique : du code réel à examiner, de la documentation à évaluer, des exemples à tester, et des chaînes d’outils à expérimenter. Les semaines suivant la publication révéleront la réponse de la communauté – que les développeurs externes soumettent des problèmes, contribuent à des améliorations, et commencent à construire les ressources de l’écosystème qui rendent les plateformes de plus en plus capables.
D’ici mi-2026, des tendances devraient se dessiner sur la réussite de la stratégie de développement open-source d’IA de Huawei pour construire une communauté active autour de l’infrastructure Ascend ou si la plateforme reste principalement une initiative dirigée par le fournisseur avec une participation externe limitée.
Pour les développeurs, une période d’évaluation de six mois allant de décembre 2025 à environ mi-2026 sera une période d’évaluation pour déterminer si cette plateforme open-source mérite un investissement sérieux en temps et en ressources.


