
Vendredi, quelques heures seulement après avoir publiquement soutenu son rival Anthropic, qui a fermement résisté aux exigences du Pentagone, le PDG d’OpenAI, Sam Altman, a annoncé que la société avait signé son propre contrat avec le Pentagone. Cette décision intervient peu de temps après que le gouvernement américain a pris la mesure très inhabituelle de désigner Anthropic comme un « risque pour la chaîne d’approvisionnement ».
La décision d’OpenAI a été critiquée par de nombreux chercheurs en IA et experts en politique technologique, même si la société a soutenu qu’elle imposait des limites à l’accord sur la surveillance des citoyens américains et sur les armes mortelles autonomes qu’Anthropic voulait dans son contrat mais qui a été rejeté par le Pentagone.
L’un des principaux points de discorde concernait la surveillance de masse au niveau national. Les experts avertissent depuis longtemps que l’IA avancée peut prendre des données distribuées individuellement inoffensives, telles que la localisation, les finances et l’historique de recherche d’une personne, et les assembler automatiquement et à grande échelle pour former une image complète de la vie de chacun. Le PDG d’Anthropic, Dario Amodei, a déclaré que ce type de surveillance de masse basée sur l’IA pose de nouveaux risques sérieux pour les « libertés fondamentales » des personnes et que « les lois n’ont pas encore rattrapé les capacités croissantes de l’IA ».
Cependant, bien qu’OpenAI ait déclaré dans un article de blog avoir conclu un accord avec le Pentagone selon lequel sa technologie ne serait pas utilisée pour la surveillance de masse nationale ou pour des systèmes d’armes directement autonomes (deux restrictions strictes qu’Anthropic avait refusé de lever), certains experts juridiques et politiques ont remis en question d’éventuelles lacunes dans la loi.
Une partie de la controverse repose sur la vague légalité de l’analyse à grande échelle des données des Américains, qui est légale en vertu de la loi américaine actuelle, même si elle semble impossible à distinguer de la surveillance de masse.
« Actuellement, en vertu de la loi américaine, il est légal pour les autorités gouvernementales d’acheter des informations disponibles dans le commerce auprès de courtiers en données et d’autres tiers », a déclaré Sameer Jain, vice-président des politiques au Center for Democracy & Technology. « En achetant de grandes quantités de données et en les faisant analyser par l’IA, vous pourriez en fait vous lancer dans une surveillance massive du public américain par le biais du processus. Actuellement, cela n’est ni restreint ni interdit par la loi. »
OpenAI affirme que ses « lignes rouges » seront appliquées à travers le langage des systèmes technologiques qu’elle envisage de construire et ses contrats avec le ministère de la Défense. Le contrat autorise le ministère de la Défense à utiliser l’IA « à toute fin licite conforme à la loi applicable, aux exigences opérationnelles et aux protocoles de sécurité et de surveillance établis », mais interdit explicitement la surveillance sans restriction des informations personnelles des citoyens américains, selon un article de blog de l’entreprise.
Le problème est que ce qui est « légal » peut changer. Le contrat d’OpenAI est soumis à la loi en vigueur et aux politiques du ministère de la Défense, qui pourraient changer à l’avenir. « Il n’y a rien dans ce qu’ils ont annoncé qui empêchera de futurs changements de politique », a déclaré Jain.
Certains critiques affirment que les agences de renseignement existantes autorisent déjà les formes de surveillance qu’OpenAI dit interdire. Mike Masnick, fondateur du blog Techdirt, a écrit sur les réseaux sociaux que l’accord « autorise absolument la surveillance intérieure », en faisant référence au décret 12333, une autorité de longue date qui permet aux agences de renseignement de collecter des communications en dehors des États-Unis, qui pourraient inclure des données sur les Américains si elles les acquéraient en dehors des États-Unis.
Certaines discussions portent sur des parties spécifiques de la loi américaine régissant diverses activités de sécurité nationale. Les actions militaires américaines sont généralement régies par le Titre 10, U.S.C. Cela inclut les travaux effectués par la Defense Intelligence Agency et le US Cyber Command en soutien aux opérations militaires. Cependant, une partie du travail de la DIA relève d’une section distincte du Code américain, le Titre 50, qui régit généralement la collecte de renseignements secrets et les actions secrètes. Les opérations de la Central Intelligence Agency et de la National Security Agency relèvent généralement également du Titre 50. Certaines des activités les plus sensibles du Titre 50, en particulier les actions secrètes, se déroulent principalement dans les coulisses et nécessitent une certification présidentielle.
OpenAI a partagé une explication détaillée de son accord avec le ministère de la Défense dans un article de blog publié ce week-end, et selon un article publié sur les réseaux sociaux par l’éminent chercheur d’OpenAI Norm Brown, Katrina Mulligan, directrice des partenariats de sécurité nationale de l’entreprise, a déclaré à Brown que le contrat d’OpenAI n’inclut pas les efforts du titre 50 de la communauté du renseignement, l’une des principales sources d’inquiétude des critiques. Les représentants d’OpenAI n’ont pas immédiatement répondu à la demande de commentaires de Fortune.
Mais les juristes affirment que la distinction entre les activités du Titre 10 et du Titre 50 devient de plus en plus floue. En fait, les deux sont très similaires et peuvent tous deux impliquer l’analyse de données et le suivi de modèles concernant des adversaires étrangers. Mais ce chevauchement crée une zone grise pour des entreprises comme OpenAI. Les contrats interdisant les travaux du Titre 50 n’empêchent pas automatiquement les agences du Titre 10 comme la DIA d’utiliser l’IA pour analyser des ensembles de données disponibles dans le commerce ou non classifiés.
« Si vous dites que votre système ne peut être utilisé pour aucune activité Title 50, vous réduisez la gamme d’activités pour lesquelles vous pouvez utiliser votre système d’IA », a déclaré Jain. « Mais cela ne résout pas le problème. »

