Les origines de la « guerre de la poudre » remontent au XVe siècle, lorsque le premier dispositif mécanique d’allumage du feu, le pistolet à mèche, fut inventé. Actuellement, des essaims de drones mènent des attaques transfrontalières en toute impunité. En 1685, le physicien italien Giovanni Borrelli prévoyait un monde dans lequel les machines entraînées par des poulies pourraient imiter le comportement animal. Elon Musk parle désormais de robots suffisamment intelligents pour faire les courses des chirurgiens.
Les développements technologiques sont à la fois immédiats et ancrés dans l’histoire, d’un seul coup, partout et lentement. Le contraste rapide/lent est intégré dans une œuvre d’art appelée Calculation Empires, une fresque murale de 24 mètres de long exposée au Musée du Design de Barcelone. Visualisez le voyage depuis les presses à imprimer jusqu’aux deepfakes, du quipu, une ancienne calculatrice péruvienne faite de corde nouée, aux systèmes de données « à l’échelle de la planète ».
« Ce que je trouve vraiment intéressant, c’est que lorsque les gens entrent dans cette installation, cela les aide à mettre ce moment en perspective », a déclaré Kate Crawford lors du Mobile World Congress à Barcelone en mars. Crawford, professeur de recherche en intelligence artificielle à l’Université de Californie du Sud, est co-créateur de la fresque murale, dont la réalisation a pris quatre ans. Avec l’artiste visuel Vladen Joler, cette œuvre nous met tous au défi de nous demander qui établit les règles et décide de ce qui est important lorsqu’il s’agit d’un changement technologique fondamental.
« Les gens ont l’impression que nous vivons dans ce présentisme technologique et dans un énorme changement », a déclaré Crawford. « C’est donc la capacité de prendre du recul et de dire : ‘Qu’avons-nous appris en 500 ans ?’ (La question). Pour moi,[la fresque]était un projet transformateur car ce qui était très clair, c’est que l’histoire n’est pas seulement une question d’innovation technologique. Il s’agit de savoir qui a le pouvoir de fixer les règles selon lesquelles nous vivons. »
« C’est pourquoi l’IA des agents est si importante à l’heure actuelle, car c’est un domaine qui évolue rapidement. Les normes n’ont pas encore été établies. Et ce sont les gens ici, dans des salles comme celle-ci, dans des endroits comme le Mobile World Congress, qui ont ces conversations : que voulons-nous que ces normes soient, comment les mettre en œuvre dans nos systèmes et comment pouvons-nous nous protéger nous-mêmes et nos clients ? »
« Parce que c’est un moment critique pour vraiment s’assurer qu’il s’agit d’une technologie très utile et bénéfique qui n’ouvre pas de vulnérabilités, de vecteurs d’attaque ou de nouvelles surfaces d’attaque et n’est pas une technologie qui peut être très dangereuse sur le plan cognitif. »
Lire la suite : Le plus grand rassemblement technologique au monde parle du « blanchiment de responsabilité » : voici pourquoi il devrait être le « mot de l’année »
Le Mobile World Congress est un phénomène. Plus de 100 000 participants se promèneront délibérément dans huit salles caverneuses remplies de technologies futuristes. Sponsorisé par Huawei et Google, Honor et Qualcomm, le pavillon géant présente de nouveaux produits passionnants qui connectent les voitures et les téléphones portables, les robots et les personnes handicapées, ainsi que les lunettes et Internet. Les gouvernements avides d’influence et d’investissement et les entreprises espérant gagner gros dans la révolution de l’intelligence artificielle se disputent l’espace.
Le MWC est aussi un forum de discussion. Sur les grandes scènes, les conversations entre les leaders de la technologie se perdent souvent entre les néons clignotants et les écrans plasma interactifs. « Avançons vite et cassons les choses », disait Mark Zuckerberg en 2012. Aujourd’hui, les enjeux sont trop élevés.
Nous débattons activement de la signification même du renseignement. Demis Hassabis, fondateur de DeepMind, affirme que l’intelligence artificielle générale pourrait être parmi nous d’ici cinq ans. Qui ou quoi prend les décisions dans ce monde ? Est-ce un problème entre les parties ? Ou est-ce que les humains ont le contrôle ? Ou les humains ne sont-ils pas du tout nécessaires ? L’ancien directeur commercial de Google, Mo Gawdat, a évoqué le risque d’une « dystopie à court terme » alors que les gouvernements, la société civile et les régulateurs luttent pour contrôler l’impact des machines d’apprentissage et de prise de décision.
« Qu’entendez-vous par intelligence ? » a demandé Crawford. « Le terme ‘renseignement’ a une histoire trouble. Il a été utilisé pour diviser la nation et promouvoir des programmes sur qui est digne et qui ne l’est pas. »
« Nous essayons de comparer les agents à l’intelligence humaine, qui est en réalité assez différente. Cette (intelligence) est constituée de probabilités statistiques à grande échelle. Ce sont des systèmes qui effectuent des tâches dans des environnements complexes. C’est très différent de l’intelligence humaine, mais cela nécessite de poser un ensemble de questions différent. Qu’est-ce que cela signifie ? Comment pouvons-nous le suivre et mieux comprendre comment il change nos propres flux de travail et, plus important encore, nos vies ? »
« Le terme ‘intelligence’ a une histoire trouble… »
Kate Crawford, professeur de recherche en intelligence artificielle à l’Université de Californie du Sud
Alors que les discussions se poursuivent sur les tensions entre OpenAI, Anthropic et le département américain de l’armée, Crawford a demandé quelle devrait être la ligne rouge lors de l’utilisation d’agents. « Imaginez un agent sur le champ de bataille », dit-elle. Ce n’est pas nécessaire. Des bombardements propulsés par l’IA se produiraient en Iran « à la vitesse de la pensée ». L’une des capacités de l’IA est la « compression des décisions », qui réduit le délai entre l’idée et l’exécution. La « chaîne de la mort » diminue.
« C’est son ampleur et sa rapidité, qui coupent la capacité du régime à riposter avec n’importe quel missile balistique aéroporté, tout en menant en même temps des attaques de type assassinat », a déclaré le professeur Craig Jones, de l’université de Newcastle, au journal britannique Guardian.
Crawford parle de criminalistique de responsabilité, un système qui suit où les décisions sont prises. Actuellement, nous souffrons d’un blanchiment de responsabilité où personne n’est tenu pour responsable. Dans la fonction publique britannique, la branche opérationnelle du gouvernement, on connaît ce phénomène sous le nom de « syndrome de l’épaule », où chacun esquive et esquive pour se soustraire à ses responsabilités.
« Nous assistons à ce type de jeu de coquille où les gens se demandent : « Est-ce le concepteur, ou le déployeur, ou l’entreprise cliente, ou l’utilisateur final ? et n’importe qui peut dire : « Eh bien, nous ne le savons pas encore vraiment. » Ce serait inacceptable », a déclaré Crawford. Je pense que ce que nous allons commencer à voir, en particulier dans les conversations avec les régulateurs, c’est une chaîne de responsabilité très solide où nous savons exactement qui est responsable et quand. »
Si la moitié de ce qui a été annoncé au MWC 2026 se réalise, les agents seront bientôt impliqués dans tous les aspects de nos vies. Ils pourront lire et mettre en cache chaque texte non écrit, chaque image supprimée, chaque e-mail laissé comme brouillon, chaque vidéo enregistrée sur des lunettes numériques et chaque conversation enregistrée. Crawford a averti que cela « porte atteinte à la vie privée telle que nous la connaissons ».
« Nous en sommes aux tout premiers stades de la compréhension de ce à quoi cela ressemble », a-t-elle déclaré. Toutes les conversations doivent être substantielles. Et immédiat.


