Anthropic a révoqué l’accès d’Openai à sa famille Claude de modèles d’IA, selon le rapport de Wired.
Des sources ont déclaré à Wired qu’Openai connectait Claude aux outils internes qui permettaient à l’entreprise de comparer les performances de Claude pour laisser les propres modèles dans des catégories telles que le codage, l’écriture et la sécurité.
TechCrunch a contacté Anthropic et Openai pour commenter. Dans une déclaration à Wired, un porte-parole anthropique a déclaré: «Le personnel technique d’Openai utilisait également des outils de codage avant le lancement de GPT-5», qui est apparemment «une violation directe de nos conditions de service». (Les termes commerciaux d’Anthropic interdisent aux entreprises d’utiliser Claude pour construire des services de comparaison.)
Cependant, Anthropic a également déclaré qu’il continuerait de donner un accès à OpenAI à des «évaluations d’analyse comparative et de sécurité».
Pendant ce temps, un porte-parole d’OpenAI a déclaré: «Bien que nous respectons la décision d’Anthropic de couper notre accès à l’API, il est décevant compte tenu de nos remakes API à leur disposition.»
Les dirigeants anthropiques avaient déjà montré une résistance à l’accès aux concurrents, avec Jared Kaplan, le directeur des sciences, justifiant précieusement la décision de l’entreprise de couper Windsurf (une cible d’acquisition d’Openai, acquise par la suite par cognition) serait étrange pour nous de vendre Claude à Openai. «