La dernière mise à jour de la spécification MCP renforce l’infrastructure d’entreprise avec une sécurité renforcée, faisant passer les agents d’IA du stade pilote à la production.
Pour son premier anniversaire, le projet open source créé par Anthropic a publié une spécification révisée cette semaine, visant à résoudre les problèmes opérationnels qui empêchent les agents d’IA générative de passer du mode pilote au mode production. Soutenu par Amazon Web Services (AWS), Microsoft et Google Cloud, la mise à jour ajoute le support des workflows de longue durée et des contrôles de sécurité renforcés.
Le marché s’éloigne des intégrations fragiles et sur mesure. Pour les entreprises, c’est l’occasion de déployer une IA agentic capable de lire et d’écrire dans les bases de données d’entreprise sans accumuler une dette technique massive.
L’avancée de MCP de la « curiosité des développeurs » à l’infrastructure pratique
Le récit est passé des chatbots expérimentaux à l’intégration structurelle. Depuis septembre, le registre s’est étendu de 407 %, abritant désormais près de deux mille serveurs.
« Un an après le lancement par Anthropic du Protocole de Contexte du Modèle, MCP est passé d’une curiosité des développeurs à un moyen pratique de connecter l’IA aux systèmes où le travail et les données résident », déclare Satyajith Mundakkal, CTO mondial chez Hexaware, à la suite de cette dernière mise à jour de la spécification.
Microsoft a déjà « signalé le changement en ajoutant le support natif de MCP à Windows 11 », intégrant ainsi directement la norme dans la couche du système d’exploitation.
Cette normalisation logicielle s’accompagne d’une montée en puissance matérielle agressive. Mundakkal souligne le « déploiement sans précédent de l’infrastructure », citant le programme multi-gigawatt « Stargate » d’OpenAI. « Ce sont des signaux clairs que les capacités de l’IA, et les données sur lesquelles elles dépendent, évoluent rapidement », explique-t-il.
MCP est le système de plomberie alimentant ces énormes ressources de calcul. Comme le dit Mundakkal : « L’IA n’est aussi performante que les données auxquelles elle peut accéder en toute sécurité. »
Jusqu’à présent, connecter un LLM à une base de données était principalement synchrone. Cela fonctionne pour un chatbot vérifiant la météo, mais échoue lors de la migration d’une base de code ou de l’analyse de dossiers de santé.
La nouvelle fonctionnalité « Tâches » change la donne (SEP-1686). Elle donne aux serveurs un moyen standard de suivre le travail, permettant aux clients de vérifier l’état ou d’annuler les tâches si les choses déraillent. Les équipes opérationnelles automatisant la migration d’infrastructure ont besoin d’agents capables de fonctionner pendant des heures sans expiration. Le support des états comme « travail en cours » ou « entrée requise » apporte enfin de la résilience aux workflows agentic.
La mise à jour de la spécification MCP améliore la sécurité
Pour les RSSI en particulier, les agents d’IA ressemblent souvent à une surface d’attaque massive et incontrôlée. Les risques sont déjà visibles ; « les chercheurs en sécurité ont même trouvé environ 1 800 serveurs MCP exposés sur Internet d’ici la mi-2025 », ce qui laisse penser que l’adoption de l’infrastructure privée est significativement plus large.
« Fait de manière incorrecte », avertit Mundakkal, « [MCP] devient une prolifération d’intégrations et une plus grande surface d’attaque. »
Pour y remédier, les mainteneurs ont abordé la friction de l’Enregistrement Dynamique des Clients (DCR). La solution est l’enregistrement des clients basé sur les URL (SEP-991), où les clients fournissent un identifiant unique pointant vers un document de métadonnées auto-géré pour réduire le goulot d’étranglement administratif.
Il y a aussi la « Solicitation de Mode URL » (SEP-1036). Elle permet à un serveur – gérant des paiements, par exemple – d’envoyer un utilisateur vers une fenêtre de navigateur sécurisée pour les identifiants. L’agent ne voit jamais le mot de passe ; il ne reçoit que le jeton. Cela permet d’isoler les informations d’identification de base, une condition non négociable pour la conformité PCI.
Harish Peri, SVP chez Okta, estime que cela apporte « la surveillance et le contrôle d’accès nécessaires pour construire un écosystème d’IA sécurisé et ouvert. »
Une fonctionnalité faisant partie de la mise à jour de la spécification pour l’infrastructure MCP est quelque peu passée inaperçue : l’échantillonnage avec des outils (SEP-1577). Les serveurs étaient autrefois des collecteurs de données passifs ; maintenant, ils peuvent exécuter leurs propres boucles en utilisant les jetons du client. Imaginez un « serveur de recherche » qui crée des sous-agents pour fouiller des documents et synthétiser un rapport. Aucun code client personnalisé requis, cela rapproche simplement le raisonnement des données.
Cependant, câbler ces connexions n’est que la première étape. Mayur Upadhyaya, PDG d’APIContext, soutient que « la première année d’adoption de MCP a montré que l’IA d’entreprise ne commence pas par des réécritures, mais par l’exposition. »
Mais la visibilité est le prochain obstacle. « La prochaine vague portera sur la visibilité : les entreprises devront surveiller le temps de fonctionnement de MCP et valider les flux d’authentification aussi rigoureusement qu’elles surveillent les API aujourd’hui », explique Upadhyaya.
La feuille de route de MCP reflète cela, avec des mises à jour ciblant une meilleure « fiabilité et observabilité » pour le débogage. Si vous traitez les serveurs MCP comme « configurer et oublier », vous vous exposez à des problèmes. Mundakkal est d’accord, notant que la leçon de la première année est de « jumeler MCP avec une identité forte, des contrôles d’accès basés sur les rôles et une observabilité dès le premier jour. »
Une liste d’industries de premier plan adoptant MCP pour l’infrastructure
Un protocole n’est aussi bon que les personnes qui l’utilisent. En un an depuis la publication de la spécification d’origine, MCP a atteint près de deux mille serveurs. Microsoft l’utilise pour relier GitHub, Azure et M365. AWS l’intègre dans Bedrock. Google Cloud le prend en charge sur Gemini.
Cela réduit le verrouillage des fournisseurs. Un connecteur Postgres conçu pour MCP devrait théoriquement fonctionner sur Gemini, ChatGPT ou un agent Anthropic interne sans nécessiter de réécriture.
La phase de « plomberie » de l’IA générative se stabilise, et les normes ouvertes remportent le débat sur la connectivité. Les leaders technologiques devraient envisager d’auditer les API internes pour être prêts pour MCP – en se concentrant sur l’exposition plutôt que sur les réécritures – et vérifier que l’enregistrement des clients basé sur les URL s’intègre aux cadres actuels de gestion des identités et des accès.
Des protocoles de surveillance doivent également être établis immédiatement. Alors que la dernière mise à jour de la spécification MCP est rétrocompatible avec l’infrastructure existante ; les nouvelles fonctionnalités sont le seul moyen d’intégrer les agents dans des flux de travail réglementés et missionnels et de garantir la sécurité. De nos jours, il est essentiel pour les entreprises d’avoir une présence en ligne forte et bien optimisée pour les moteurs de recherche (SEO). En effet, la plupart des consommateurs utilisent Internet pour rechercher des produits ou des services, et si votre entreprise n’apparaît pas dans les premiers résultats de recherche, vous risquez de perdre de nombreux clients potentiels.
Le SEO est un ensemble de techniques visant à améliorer la visibilité d’un site web dans les résultats des moteurs de recherche. En optimisant votre site pour les moteurs de recherche, vous augmentez vos chances d’apparaître en haut des résultats de recherche et d’attirer plus de visiteurs sur votre site.
Il existe de nombreuses façons d’optimiser votre site pour le SEO. Tout d’abord, il est important de choisir les bons mots-clés pour votre secteur d’activité. Ces mots-clés doivent être pertinents pour votre entreprise et être utilisés de manière stratégique dans le contenu de votre site.
Ensuite, il est essentiel d’optimiser la structure de votre site pour les moteurs de recherche. Cela comprend l’organisation de vos pages, la création de balises méta et la mise en place d’une architecture de site claire et intuitive.
Enfin, la création de contenu de qualité est un élément clé de toute stratégie de SEO réussie. En publiant régulièrement du contenu pertinent et informatif sur votre site, vous augmentez vos chances d’apparaître dans les résultats de recherche et de vous positionner en tant qu’expert dans votre domaine.
En plus d’optimiser votre site pour les moteurs de recherche, il est également important de suivre les tendances du SEO et d’adapter votre stratégie en conséquence. Les algorithmes des moteurs de recherche évoluent constamment, et il est essentiel de rester à jour pour rester compétitif dans votre secteur.
En conclusion, le SEO est un élément essentiel de toute stratégie de marketing en ligne. En optimisant votre site pour les moteurs de recherche, vous augmentez votre visibilité en ligne et attirez plus de clients potentiels. En suivant les bonnes pratiques de SEO et en restant à jour sur les tendances du secteur, vous pouvez positionner votre entreprise pour réussir sur le long terme.


