La publicité d’Anthropic pour le Super Bowl, l’une des quatre publicités publiées par le laboratoire d’IA mercredi, commence par le mot « TRAHISON » affiché audacieusement sur l’écran. La caméra se tourne vers un homme demandant sincèrement à un chatbot (visiblement destiné à représenter ChatGPT) des conseils sur la façon de parler à sa mère.
Le robot, joué par une femme blonde, propose quelques conseils classiques. Commencez par écouter. Essayez une balade nature ! Et puis se transforme en une publicité pour un site de rencontres entre cougars fictif (nous l’espérons !) appelé Golden Encounters. Anthropic termine le spot en disant que même si les publicités arrivent sur l’IA, elles ne viendront pas sur son propre chatbot, Claude.
Une autre publicité met en scène un jeune homme mince cherchant des conseils sur la construction d’un pack de six. Après avoir indiqué sa taille, son âge et son poids, le robot lui propose une publicité pour des semelles augmentant la hauteur.
Les publicités Anthropic sont intelligemment destinées aux utilisateurs d’OpenAI, après l’annonce récente de cette société selon laquelle des publicités seraient diffusées sur le niveau gratuit de ChatGPT. Et ils ont immédiatement fait sensation, donnant lieu à des gros titres selon lesquels Anthropic « se moque », « brochette » et « dunks » sur OpenAI.
Ils sont suffisamment drôles pour que même Sam Altman ait admis sur X qu’il s’était moqué d’eux. Mais il ne les trouvait visiblement pas vraiment drôles. Ils l’ont inspiré à écrire un discours de la taille d’un roman qui a abouti à qualifier son rival de « malhonnête » et d’« autoritaire ».
Dans cet article, Altman explique qu’un niveau financé par la publicité est destiné à assumer le fardeau d’offrir ChatGPT gratuit à plusieurs de ses millions d’utilisateurs. ChatGPT reste de loin le chatbot le plus populaire.
Mais le PDG d’OpenAI a insisté sur le fait que les publicités étaient « malhonnêtes » en ce sens qu’elles laissaient entendre que ChatGPT déformerait une conversation pour insérer une publicité (et éventuellement pour un produit de mauvaise couleur, pour démarrer). « Nous ne diffuserons évidemment jamais de publicités telles qu’Anthropic les décrit », a écrit Altman dans la publication sur les réseaux sociaux. « Nous ne sommes pas stupides et nous savons que nos utilisateurs rejetteraient cela. »
Événement Techcrunch
Boston, Massachusetts
|
23 juin 2026
En effet, OpenAI a promis que les publicités seraient séparées, étiquetées et n’influenceraient jamais un chat. Mais la société a également déclaré qu’elle prévoyait de les rendre spécifiques aux conversations – ce qui est l’allégation centrale des publicités d’Anthropic. Comme l’explique OpenAI sur son blog. « Nous prévoyons de tester les annonces au bas des réponses dans ChatGPT lorsqu’il existe un produit ou un service sponsorisé pertinent en fonction de votre conversation en cours. »
Altman a ensuite lancé des affirmations tout aussi discutables à son rival. « Anthropic sert un produit coûteux aux riches », écrit-il. « Nous sommes également convaincus que nous devons apporter l’IA aux milliards de personnes qui ne peuvent pas payer leurs abonnements. »
Mais Claude propose également un niveau de chat gratuit, avec des abonnements à 0 $, 17 $, 100 $, 200 $. Les niveaux de ChatGPT sont de 0 $, 8 $, 20 $, 200 $. On pourrait affirmer que les niveaux d’abonnement sont assez équivalents.
Altman a également affirmé dans son message qu’« Anthropic veut contrôler ce que les gens font avec l’IA ». Il affirme que cela bloque l’utilisation de Claude Code par les « entreprises qu’ils n’aiment pas » comme OpenAI, et qu’Anthropic indique aux gens pourquoi ils peuvent et ne peuvent pas utiliser l’IA.
Il est vrai que l’ensemble du contrat marketing d’Anthropic depuis le premier jour a été « l’IA responsable ». Après tout, l’entreprise a été fondée par deux anciens anciens d’OpenAI, qui ont affirmé s’être alarmés de la sécurité de l’IA lorsqu’ils y travaillaient.
Pourtant, les deux sociétés de chatbots ont des politiques d’utilisation, des garde-fous en matière d’IA et parlent de la sécurité de l’IA. Et bien qu’OpenAI autorise l’utilisation de ChatGPT à des fins érotiques, contrairement à Anthropic, OpenAI, comme Anthropic, a déterminé que certains contenus devraient être bloqués, notamment en ce qui concerne la santé mentale.
Pourtant, Altman a poussé cet argument selon lequel Anthropic vous dit quoi faire à un niveau extrême lorsqu’il a accusé Anthropic d’être « autoritaire ».
« Une entreprise autoritaire n’y parviendra pas à elle seule, sans parler des autres risques évidents. C’est un chemin sombre », a-t-il écrit.
Utiliser « autoritaire » dans une diatribe sur une publicité effrontée du Super Bowl est, au mieux, déplacé. C’est particulièrement imprudent si l’on considère l’environnement géopolitique actuel dans lequel des manifestants du monde entier ont été tués par des agents de leur propre gouvernement. Alors que les concurrents commerciaux s’affrontent dans les publicités depuis la nuit des temps, Anthropic a clairement touché une corde sensible.

