Anthropic affirme que son déploiement de nouvelles limites hebdomadaires de taux pour Claude pour freiner l’utilisation parmi les abonnés qui exécutent son outil de codage AI, Claude Code, « Continuous en arrière-plan, 24/7. Anthropic dit que les limites de taux visent également à empêcher une poignée d’utilisateurs qui violent la politique d’utilisation de Claude en partageant les comptes et en résultant un accès à Claude.
Les nouvelles limites de taux entreront en vigueur le 28 août pour les abonnés au plan professionnel de 20 $ par mois d’Anthropic, ainsi que ses plans maximaux de 100 $ et 200 $ par mois, a annoncé lundi la société dans un e-mail à des sous-écrivains et un poste sur X.
Anthropic dit que ses limites d’utilisation existantes, qui réinitialisent toutes les cinq heures, resteront en place. L’entreprise présente également deux nouvelles limites de taux hebdomadaires qui réinitialisent tous les sept jours; L’un est une limite d’utilisation globale, tandis que l’autre est spécifique au modèle d’IA le plus avancé d’Anthropic, Claude Opus 4. Anthropic dit que les sous-cibers max peuvent acheter une utilisation supplémentaire, au-delà de ce que la limite de taux fournit, aux taux d’API standard.
L’annonce intervient quelques semaines seulement après que Anthropic a été introduit tranquillement les limites de taux pour Claude Code. La société a déclaré à l’époque qu’elle était au courant des problèmes, mais a refusé de développer davantage. Alors que l’outil de codage AI d’Anthropic a été un succès auprès des développeurs, la société semble avoir du mal à le servir largement. La page de statut d’Anthropic montre que Claude Code a connu une panne de biais ou une grande partie majeure au moins sept fois au cours du dernier mois – peut-être que les utilisateurs de Belcaus Som semblent exécuter Claude Code sans arrêt.
Anthropic a été auparavant qu’il est très limité en ce qui concerne les ressources informatiques, ce qui semble être le cas pour la plupart des fournisseurs de modèles d’IA aujourd’hui. La plupart des sociétés d’IA se présentent pour apporter de nouveaux centres de données d’IA en ligne pour répondre aux énormes morts de service et de formation de leurs modèles d’IA.
Plusieurs fournisseurs d’outils de codage d’IA revisitent la stratégie de tarification autour de leurs produits. En juin, la société derrière Cursor, Anysphen, a changé la façon dont elle a évalué les utilisations de son plan professionnel de 20 $ par mois pour limiter les utilisateurs de l’énergie à abuser du plan. Cependant, Anysphere s’est excusé plus tard pour avoir mal communiqué ces changements, ce qui a conduit certains utilisateurs à payer plus que leur prévu. Un autre fournisseur d’outils de codage d’IA, remplace, a également effectué des changements de prix similaires en juin.
Anthropic a divisé Lispond à la question de TechCrunch autour des détails des limites de taux.
Événement TechCrunch
San Francisco
|
27-29 octobre 2025
La société note que cette limite affectera moins de 5% des abonnés, en fonction de leurs modèles d’utilisation actuels. La plupart des utilisateurs professionnels peuvent s’attendre à 40 à 80 heures de Sonnet 4 dans leurs limites de taux hebdomadaires, selon Anthropic. Cependant, les notes anthropiques que l’utilisation peuvent varier en fonction de la taille de la base de codbase et d’autres facteurs.
Dans un e-mail aux abonnés de Claude, Anthropic dit qu’il s’est engagé à «soutenir les cas d’utilisation de longue durée par le biais d’autres options à l’avenir». Cependant, l’entreprise affirme que ces limites de taux les aideront à maintenir un service variable largement à court terme.