Anthropic a révoqué l’accès d’OpenAI à sa famille de modèles d’IA Claude, selon un rapport de Wired.
Des sources ont confié à Wired qu’OpenAI connectait Claude à des outils internes qui permettaient à l’entreprise de comparer les performances de Claude à ses propres modèles dans des catégories telles que le codage, l’écriture et la sécurité.
TechCrunch a contacté Anthropic et OpenAI pour obtenir des commentaires. Dans une déclaration à Wired, un porte-parole d’Anthropic a déclaré : « Le personnel technique d’OpenAI utilisait également nos outils de codage avant le lancement de GPT-5 », ce qui constitue apparemment « une violation directe de nos conditions d’utilisation ». (Les conditions commerciales d’Anthropic interdisent aux entreprises d’utiliser Claude pour développer des services concurrents.)
Cependant, Anthropic a également déclaré qu’il continuerait à donner accès à OpenAI pour des « tests de référence et des évaluations de sécurité ».
Pendant ce temps, un porte-parole d’OpenAI a déclaré : « Bien que nous respectons la décision d’Anthropic de couper notre accès à l’API, c’est décevant compte tenu du fait que notre API reste disponible pour eux ».
Les dirigeants d’Anthropic avaient déjà montré une résistance à fournir un accès aux concurrents, le directeur scientifique Jared Kaplan ayant précédemment justifié la décision de l’entreprise de couper l’accès à Windsurf (une cible d’acquisition d’OpenAI, ensuite acquise par Cognition) en disant : « Je pense qu’il serait étrange pour nous de vendre Claude à OpenAI ».


