Le Pentagone pousse les sociétés d’IA à autoriser l’armée américaine à utiliser leur technologie à « toutes fins légales », mais Anthropic s’y oppose, selon un nouveau rapport d’Axios.
Le gouvernement aurait fait la même demande à OpenAI, Google et xAI. Un responsable anonyme de l’administration Trump a déclaré à Axios que l’une de ces sociétés avait accepté, tandis que les deux autres auraient fait preuve d’une certaine flexibilité.
L’Anthropique, quant à lui, aurait été le plus résistant. En réponse, le Pentagone menace apparemment de mettre fin à son contrat de 200 millions de dollars avec la société d’IA.
En janvier, le Wall Street Journal a rapporté qu’il y avait un désaccord important entre les responsables d’Anthropic et du ministère de la Défense sur la manière dont ses modèles Claude pourraient être utilisés. Le WSJ a ensuite déclaré que Claude avait été utilisé dans l’opération militaire américaine visant à capturer le président vénézuélien de l’époque, Nicolás Maduro.
Anthropic n’a pas immédiatement répondu à la demande de commentaires de TechCrunch.
Un porte-parole de la société a déclaré à Axios que la société n’avait «pas discuté de l’utilisation de Claude pour des opérations spécifiques avec le ministère de la Guerre», mais qu’elle se concentrait plutôt sur un ensemble spécifique de questions de politique d’utilisation, à savoir nos limites strictes en matière d’armes entièrement autonomes et de surveillance intérieure de masse.

