Vendredi dernier, la tentative d’attentat à la bombe incendiaire contre le domicile du PDG d’OpenAI, Sam Altman, à San Francisco, qui aurait été perpétrée par Daniel Moreno-Gama, 20 ans, a attiré l’attention sur deux groupes anti-IA portant le même nom, Pause AI et Stop AI. Tous deux ont condamné les violences et déclaré que le suspect n’était pas et n’a jamais été membre de leur organisation.
Pourtant, l’incident, au cours duquel Morenogama s’est également rendu au siège d’OpenAI, a tenté de briser la porte vitrée du bâtiment avec une chaise et a menacé de mettre le feu à l’installation, a révélé son activité sur le serveur Discord de Pause AI et a renouvelé l’examen minutieux des actions directes de Stop AI ciblant OpenAI l’année dernière.
Mouvement basé sur la décélération de l’IA
Pause AI, fondée en mai 2023 par Joep Meindertsma à Utrecht, aux Pays-Bas, vise à mettre fin à ce qu’elle appelle « la dangereuse IA frontalière » et a organisé sa première manifestation devant le bureau du lobby de Microsoft à Bruxelles. Le nom du groupe a été inspiré par une lettre ouverte de mars 2023 du Future of Life Institute (qui est également désormais son plus grand bailleur de fonds) et est depuis devenu un mouvement populaire mondial avec des sections locales. Cela inclut une autre organisation appelée Pause AI US, basée à Berkeley et dirigée par Holly Elmore, titulaire d’un doctorat en biologie évolutionniste de l’Université Harvard et qui a auparavant travaillé dans un groupe de réflexion axé sur le bien-être de la faune.
Moreno-Gama a été lié dans un commentaire sur le serveur Discord de Pause AI. Ils incluaient un message daté du 3 décembre 2025 qui disait : « Il est presque minuit. Il est temps d’agir. » Pose AI a déclaré que le suspect avait rejoint le serveur il y a deux ans et publié un total de 34 messages, dont aucun « contenait un appel explicite à la violence ».

Lee Suzuki—Chronique de San Francisco/Getty Images
Elmore a déclaré à Fortune qu’elle se rendait à Washington, D.C., la semaine dernière pour terminer les préparatifs d’une manifestation pacifique au Capitole et d’une réunion avec les législateurs lorsque la tentative d’attentat à la bombe incendiaire s’est produite. « Quand nous avons atterri, tout d’un coup, nous nous sommes demandés qui avait attaqué la maison de Sam Altman », a-t-elle déclaré. « Je faisais des allers-retours entre travailler sur quelque chose dont je suis vraiment fier et dont je suis positif, et que c’est exactement le bon type de changement – un changement démocratique par des moyens démocratiques – et devoir commenter cet horrible événement, puis vraiment salir l’association avec cet événement. »
Le groupe a ajouté : « Il n’y a aucune raison de penser que cette personne a grand-chose à voir avec nous », notant que la position de Pose AI sur la violence a « toujours été incroyablement claire » et interdit clairement la violence. Il a également souligné que cette activité s’était déroulée sur un serveur Discord public et mondial, distinct du canal organisationnel de Pause AI US, et a déclaré que le suspect « n’avait aucune autre affiliation ni aucun rôle officiel ».
Elmore a ajouté que Pause AI examine intentionnellement ses bénévoles et contrôle étroitement ses messages pour éviter d’être associé à des opinions extrêmes.
Mais Nirit Weisblatt, une chercheuse indépendante qui suit les deux groupes depuis des années et rédige le bulletin d’information AI Panic, a souligné le documentaire de 2024 Near Midnight in Suicide City. Dans ce document, John Sherman, animateur du podcast For Humanity, interviewe Elmore, qui brandit une pancarte indiquant : « L’humanité ne survivra pas avec une IA plus intelligente que les humains. »
Weisblatt a déclaré que le film montre Elmore exhortant les militants à comprendre ce qu’elle décrit comme un calendrier d’urgence pour l’extinction potentielle de l’humanité. « Elle ne prône en aucun cas la violence, mais elle augmente le risque de destruction », a déclaré Weisblatt.
« Si d’éminents pessimistes de l’IA comme Eliezer Yudkowsky, auteur de « Si quelqu’un le construit, tout le monde meurt », continue de soutenir que l’extinction humaine est imminente, il n’est pas surprenant que quelqu’un soit inspiré à prendre des mesures extrêmes, a-t-elle ajouté. « Même en l’absence d’un appel clair à la violence, les jeunes anxieux en quête d’un but peuvent être radicalisés par la rhétorique apocalyptique de l’IA. »
Mais Mauro Lubrano, maître de conférences à l’Université de Bath et auteur de Stop the Machines: The Rise of Anti-Technology Extremism, a averti qu’il existait une nette différence entre les groupes cherchant à éradiquer violemment la technologie et ceux prônant une réglementation ou un moratoire. « Je pense qu’il est facile de confondre tous ces groupes et mouvements qui tentent de sensibiliser à certains des dangers de l’IA », dit-il.
Briser les tactiques et passer à l’action directe
L’incident au domicile d’Altman s’est produit environ cinq mois après qu’OpenAI a demandé aux employés de son siège social de s’abriter sur place après qu’un homme de 27 ans nommé Sam Kirchner a menacé de se rendre dans plusieurs bureaux d’OpenAI à San Francisco pour « tuer des gens », selon un appelant qui a appelé la police ce jour-là. Kirchner est co-fondateur du groupe Stop AI, qu’il a créé en 2024 avec Guido Reichstadter, 45 ans, tous deux auparavant impliqués dans Pause AI.

Drew Angerer—Getty Images
« Je les ai expulsés », a déclaré Elmore, ajoutant que la scission était due à des désaccords sur la stratégie et que les fondateurs de Stop AI promouvaient la désobéissance civile, notamment en enfreignant les lois, ce que Pause AI rejette clairement. Après avoir fondé Stop AI, Reichstadter et Kirchner ont participé à des manifestations visant OpenAI, tandis que Reichstadter a également entamé une grève de la faim devant le siège d’Anthropic (il a une longue histoire d’actions de désobéissance civile, notamment s’être enchaîné à une clôture de sécurité et grimper sur un pont à Washington, D.C., pour protester contre la décision Roe v. Wade de la Cour suprême de 2022).
Reichstadter a été incarcéré début décembre dans la prison du comté de San Francisco, soupçonné d’avoir violé une ordonnance d’un juge lui interdisant d’entrer dans les locaux d’OpenAI après sa précédente arrestation. Stop AI a également fait la une des journaux nationaux en novembre lorsque des membres de l’équipe de défense ont assigné Sam Altman à comparaître pour être apparu sur scène au Sidney Goldstein Theatre de San Francisco avec l’entraîneur-chef des Golden State Warriors, Steve Kerr.
Mais l’élan du groupe s’est effondré après la disparition de son co-fondateur Sam Kirchner après avoir été accusé d’avoir agressé Matthew Hall, l’un des dirigeants de Stop AI, qui aurait laissé entendre qu’il abandonnerait la non-violence lors d’un conflit interne. Il est toujours porté disparu.
Dans un article sur X hier, StopAI a écrit que M. Reichstadter et M. Kirchner seraient retirés du groupe en 2025. Le groupe a déclaré qu’il avait « toujours été engagé dans un travail non-violent » et que « la direction actuelle de Stop AI est profondément engagée en faveur de la non-violence, tant dans leurs actions que dans leurs déclarations ».
Pour remettre les pendules à l’heure à propos de Moreno Gama, Stop AI a écrit : « J’ai rejoint le forum public en ligne Stop AI, je me suis présenté, puis j’ai demandé : « Vais-je être banni pour avoir parlé de violence ? » » Après avoir obtenu un « oui » ferme de sa part, il a cessé toute activité sur notre forum. C’était plusieurs mois avant ses activités criminelles présumées. »
Valerie Sizemore, l’une des cinq co-dirigeantes de Stop AI, a déclaré à Fortune que certains membres craignent désormais de s’impliquer trop dans l’affaire OpenAI. « Mais personnellement, je pense qu’il est de plus en plus important pour les organisations non-violentes que nous créons de donner aux gens autre chose que la violence », a-t-elle déclaré.
Sizemore a ajouté que l’organisation reste concentrée sur les manifestations au siège de son Frontier Lab basé à San Francisco et a également participé à une manifestation locale « Stop à la course à l’IA » le mois dernier.
Discussion approfondie sur les activités d’IA et leurs risques
Lubrano, maître de conférences à l’Université de Bath, a déclaré que les mouvements anti-technologie et l’extrémisme anti-technologie existent depuis longtemps, remontant aux Luddites, les ouvriers du textile britanniques du 19ème siècle qui s’opposaient à la mécanisation et à l’industrialisation.

Justin Tallis/AFP via Getty Images
Pour de nombreuses personnes, explique-t-il, l’IA représente la somme totale de toutes leurs craintes à l’égard de la technologie. « La technologie est considérée comme un système et toutes ses parties sont interdépendantes », a-t-il déclaré. « L’IA est introduite dans les guerres, surveillant les performances des travailleurs, surveillant les personnes participant aux manifestations, garantissant les actions, etc. Grâce à l’IA, il existe des éléments d’une oligarchie technologique qui cherchent à nous contrôler et à nous mettre fin. »
Il a conseillé de collaborer avec des groupes anti-IA plutôt que de les considérer comme technophobes ou anti-technologie. « Les Luddites n’étaient pas contre la technologie ; ils étaient contre l’introduction totale de la technologie parce qu’elle détruisait leurs vies. Et ces préoccupations sont restées lettre morte, et finalement les Luddites se sont tournés vers la violence. » Ignorer ces préoccupations pourrait alimenter le ressentiment et éventuellement conduire à davantage d’actions extrémistes, a-t-il averti. Cependant, ce serait une erreur de condamner les actes de violence simplement parce que de tels groupes existent.
Cependant, Weisblatt, chercheur indépendant, a fait valoir que les opinions et les actions de groupes tels que « Pause AI » et « Stop AI » peuvent toujours conduire à une radicalisation, ce qui peut avoir des conséquences négatives.
« Les signaux d’alarme ont toujours été là, y compris le verrouillage des bureaux d’OpenAI en novembre 2025 », a-t-elle déclaré. « La vraie question est de savoir quelle direction ceux qui attisent la panique de l’IA s’attendent à ce que sa radicalisation prenne, et dans quelle mesure ils peuvent échapper à leurs responsabilités, en particulier à l’égard des plus vulnérables. »
Elmore, de Pose AI, a déclaré qu’il pensait que la compréhension du public des problèmes liés à l’IA allait s’approfondir, ce qui rendrait plus difficile la confusion entre activités pacifiques et actes de violence isolés. Bien que le sujet soit encore nouveau et souvent considéré comme un domaine unique et indifférencié, elle espère qu’il deviendra un centre majeur d’attention nationale.
« Vous constaterez que ce n’est pas si facile de peindre (nous tous) avec un seul pinceau », a-t-elle déclaré.

