
Les experts affirment que l’IA est entrée dans la salle de guerre, mais elle n’est pas prête de disparaître.
L’armée américaine aurait utilisé le modèle d’IA d’Anthropic, Claude, pour attaquer l’Iran, même si le président Donald Trump a ordonné aux agences fédérales et aux sous-traitants militaires de cesser de faire affaire avec Anthropic, selon le Wall Street Journal.
Certains experts expriment actuellement leurs inquiétudes quant à l’utilisation de l’IA dans les opérations de guerre. « Les machines d’IA font des recommandations sur ce qu’il faut cibler, ce qui est en réalité beaucoup plus rapide que la vitesse de la pensée, à certains égards », a déclaré au Guardian le Dr Craig Jones, auteur de The War Lawyers: US, Israel and the Spaces of Targeting, qui examine le rôle des avocats militaires dans la guerre moderne.
Jones, professeur de guerre et de conflits à l’Université de Newcastle, a déclaré dans une conversation avec le magazine Fortune que l’IA avait considérablement accéléré la « chaîne de destruction », réduisant ainsi le temps écoulé entre l’identification initiale de la cible et la destruction finale. Il a déclaré que l’attaque américaine et israélienne contre l’Iran qui a entraîné la mort de Khamenei n’aurait peut-être pas eu lieu sans l’IA.
« Il aurait été impossible, ou presque impossible, de procéder de cette façon », a déclaré Jones à Fortune. « Je pense que la rapidité d’exécution, l’ampleur et le volume de l’attaque sont dus à l’IA. »
Le Pentagone a demandé l’aide des sociétés d’IA pour accélérer et améliorer la planification de la guerre, et un partenariat avec Anthropic en 2024 s’est effondré la semaine dernière après des désaccords sur l’utilisation du modèle d’IA de l’entreprise, Claude. Mais OpenAI a rapidement conclu un accord avec le ministère de la Défense et xAI d’Elon Musk pour utiliser son modèle d’IA Grok sur des systèmes classifiés. L’armée américaine utilise également un logiciel de la société d’exploration de données Palantir pour obtenir des informations basées sur l’IA à des fins de prise de décision.
L’IA sur le champ de bataille
Jones a déclaré que l’US Air Force utilisait la « vitesse de la pensée » comme référence pour le rythme de la prise de décision depuis de nombreuses années. Il a déclaré que pendant la Seconde Guerre mondiale et la guerre du Vietnam, la collecte de renseignements, comme la reconnaissance aérienne, et l’exécution d’une mission de bombardement pouvaient prendre jusqu’à six mois. L’IA a considérablement raccourci ce délai.
L’un des rôles clés des outils d’IA dans la salle de crise est d’analyser rapidement de grandes quantités de données. « Nous parlons de téraoctets et de téraoctets de données : images aériennes, intelligence humaine, intelligence Internet, suivi des téléphones portables, toutes sortes de choses », a déclaré Jones.
Le Dr Amir Hussein, co-auteur de Hyperwar: Conflict and Competition in the AI Century, a déclaré que l’IA est utilisée pour comprimer le cadre décisionnel de l’armée américaine connu sous le nom de boucle OODA, acronyme de Observe, Orient, Decide, Act. Selon lui, l’IA joue déjà un rôle clé dans l’observation, l’interprétation des données satellitaires et électroniques, la prise de décision au niveau tactique et la phase « d’action », notamment grâce aux drones autonomes qui doivent fonctionner sans guidage humain lorsque les signaux sont brouillés. Certains de ces drones sont en fait des imitations du drone autonome iranien Shahed.
L’IA fait également son apparition sur d’autres champs de bataille. Israël aurait utilisé l’IA pour identifier les cibles du Hamas pendant la guerre Israël-Hamas. Et les drones autonomes sont à l’avant-garde de la guerre entre la Russie et l’Ukraine, la Russie et l’Ukraine employant toutes deux des variantes de technologies autonomes.
doubler le risque
Mais Jones a souligné un certain nombre de préoccupations concernant la guerre basée sur l’IA. « Lorsque vous ajoutez l’IA à cela, vous rencontrez le problème d’augmenter le degré d’erreur d’un ordre de grandeur », a déclaré Jones.
Certes, Jones a déclaré que l’erreur humaine existe quelle que soit la technologie de l’IA, citant l’invasion américaine de l’Irak en 2003 comme un conflit fondé sur une collecte de renseignements erronée. Mais il a déclaré que l’ampleur des données analysées par l’IA pourrait aggraver ces erreurs.
En outre, l’éventail de problèmes éthiques soulevés par la guerre par l’IA concerne principalement la responsabilité, que Hussain a déclaré que les Conventions de Genève et le droit des conflits armés exigent déjà que les États se conforment. Alors que l’IA brouille la frontière entre la prise de décision au niveau de la machine et celle au niveau humain, la communauté internationale doit garantir que la responsabilité humaine est attribuée à toutes les actions sur le champ de bataille, a-t-il déclaré.
« Le droit des conflits armés nous oblige à condamner cette personne », a déclaré Hussain. « Quel que soit le niveau d’automatisation utilisé sur le champ de bataille, cette personne doit être tenue responsable. »

