« Oui, les amis, il sera plus difficile à l’avenir de garantir qu’OpenClaw fonctionne toujours avec les modèles Anthropic », a posté le créateur d’OpenClaw Peter Steinberger sur X tôt vendredi matin, accompagné d’une photo d’un message d’Anthropic disant que son compte avait été suspendu en raison d’une activité « suspecte ».
L’interdiction n’a pas duré longtemps. Quelques heures plus tard, après que le message soit devenu viral, Steinberger a déclaré que son compte avait été rétabli. Parmi les centaines de commentaires – dont beaucoup relèvent de la théorie du complot, étant donné que Steinberger est maintenant employé par le rival d’Anthropic, OpenAI – il y en avait un émanant d’un ingénieur d’Anthropic. L’ingénieur a déclaré au célèbre développeur qu’Anthropic n’avait jamais interdit à quiconque d’utiliser OpenClaw et lui avait proposé son aide.
On ne sait pas si c’est la clé qui a restauré le compte. (Nous avons interrogé Anthropic à ce sujet.) Mais l’ensemble de la chaîne de messages était éclairant à plusieurs niveaux.
Pour récapituler l’histoire récente : cette interdiction fait suite à l’annonce de la semaine dernière selon laquelle les abonnements à Claude d’Anthropic ne couvriraient plus « les harnais tiers, y compris OpenClaw », a déclaré la société de modèles d’IA.
Les utilisateurs d’OpenClaw doivent désormais payer cette utilisation séparément, en fonction de leur consommation, via l’API de Claude. Essentiellement, Anthropic, qui propose son propre agent Cowork, facture désormais une « taxe sur les griffes ». Steinberger a déclaré qu’il suivait cette nouvelle règle et utilisait son API, mais il a quand même été banni.
Anthropic a déclaré avoir institué le changement de prix parce que les abonnements n’étaient pas conçus pour gérer les « modèles d’utilisation » de Claws. Les Claws peuvent nécessiter plus de calcul que les invites ou les scripts simples, car ils peuvent exécuter des boucles de raisonnement continues, répéter ou réessayer automatiquement des tâches et être liés à de nombreux autres outils tiers.
Steinberger, cependant, n’acceptait pas cette excuse. Après qu’Anthropic ait modifié les prix, il a posté : « C’est drôle comme les horaires correspondent, ils copient d’abord certaines fonctionnalités populaires dans leur harnais fermé, puis ils verrouillent l’open source. » Bien qu’il n’ait pas précisé, il faisait peut-être référence aux fonctionnalités ajoutées à l’agent Cowork de Claude, telles que Claude Dispatch, qui permet aux utilisateurs de contrôler les agents à distance et d’attribuer des tâches. Dispatch a été déployé quelques semaines avant qu’Anthropic ne modifie sa politique de tarification OpenClaw.
La frustration de Steinberger à l’égard d’Anthropic était à nouveau visible vendredi.
Une personne a laissé entendre qu’une partie de cela était de sa faute, pour avoir accepté un emploi chez OpenAI au lieu d’Anthropic, en postant « Vous aviez le choix, mais vous vous êtes trompé de choix ». Ce à quoi Steinberger a répondu : « On m’a accueilli, on m’a envoyé des menaces judiciaires. »
Aie.
Lorsque plusieurs personnes lui ont demandé pourquoi il utilisait Claude au lieu des modèles de son employeur, il a expliqué qu’il ne l’utilisait qu’à des fins de test, afin de garantir que les mises à jour d’OpenClaw ne casseraient pas les choses pour les utilisateurs de Claude.
Il a expliqué : « Vous devez séparer deux choses. Mon travail à la Fondation OpenClaw, où nous voulons que OpenClaw fonctionne parfaitement pour *tous* les fournisseurs de modèles, et mon travail chez OpenAI pour les aider dans leur future stratégie produit. »
Plusieurs personnes ont également souligné que la nécessité de tester Claude est due au fait que ce modèle reste un choix populaire pour les utilisateurs d’OpenClaw par rapport à ChatGPT. Il a également entendu cela lorsqu’Anthropic a modifié ses prix, ce à quoi il a répondu : « J’y travaille. » (C’est donc un indice sur les détails de son travail chez OpenAI.)
Steinberger n’a pas répondu à une demande de commentaire.

