Jack Clark, l’un des cofondateurs d’Anthropic et également responsable du bien public chez Anthropic PBC, a confirmé que la société d’IA avait informé l’administration Trump de son nouveau modèle Mythos.
Le modèle, annoncé la semaine dernière, est si dangereux qu’il n’est pas rendu public, en grande partie à cause de ses prétendues puissantes capacités de cybersécurité.
Dans une interview lors du sommet Semafor sur l’économie mondiale cette semaine, Clark a expliqué pourquoi l’entreprise était toujours en contact avec le gouvernement américain tout en les poursuivant en justice.
En mars dernier, Anthropic a intenté une action en justice contre le ministère de la Défense (DOD) de Trump après que l’agence a qualifié l’entreprise de risque pour la chaîne d’approvisionnement. Anthropic s’était affronté avec le Pentagone sur la question de savoir si l’armée devait avoir un accès illimité aux systèmes d’IA d’Anthropic pour des cas d’utilisation incluant la surveillance de masse des Américains et des armes entièrement autonomes. (OpenAI a fini par remporter l’affaire.)
Lors de la conférence, Clark a minimisé le fait que l’administration qualifie ses activités de risque pour la chaîne d’approvisionnement, affirmant qu’il s’agissait simplement d’un « différend contractuel étroit » et qu’Anthropic ne voulait pas que cela nuise au fait que l’entreprise se soucie de la sécurité nationale.
« Notre position est que le gouvernement doit être au courant de tout cela, et nous devons trouver de nouveaux moyens pour le gouvernement de s’associer avec un secteur privé qui crée des choses qui révolutionnent véritablement l’économie, mais qui comporteront des aspects qui affecteront la sécurité nationale, les actions et d’autres », a déclaré Clark. « Donc absolument, nous leur avons parlé du Mythos, et nous leur parlerons également des prochains modèles. »
Sa confirmation fait suite à des informations de la semaine dernière selon lesquelles les responsables de Trump encourageaient les banques à tester Mythos, notamment JPMorgan Chase, Goldman Sachs, Citigroup, Bank of America et Morgan Stanley.
Clark a également abordé d’autres aspects de l’impact de l’IA sur la société au cours de l’entretien, notamment le chômage et l’enseignement supérieur.
Auparavant, le PDG d’Anthropic, Dario Amodei, avait averti que les progrès de l’IA pourraient ramener le chômage aux chiffres de l’époque de la Grande Dépression, mais Clark n’est pas du tout d’accord. Il a expliqué dans l’interview qu’Amodei pense que l’IA deviendra très rapidement beaucoup plus puissante que ce à quoi les gens s’attendent, c’est pourquoi il utilise cela comme base de ses estimations.
Clark, qui dirige une équipe d’économistes chez Anthropic, a déclaré que l’entreprise ne voit jusqu’à présent « qu’une certaine faiblesse potentielle dans l’emploi des jeunes diplômés » dans certains secteurs. Il a cependant noté qu’Anthropic était prêt au cas où il y aurait des changements majeurs en matière d’emploi.
Poussé à dire quelles spécialisations les étudiants d’aujourd’hui devraient poursuivre ou éviter, en raison des impacts de l’IA, Clark se contenterait de suggérer de manière générale que les spécialisations les plus importantes sont celles qui « impliquent une synthèse sur toute une variété de sujets et une réflexion analytique à ce sujet ».
« C’est parce que ce que l’IA nous permet de faire, c’est qu’elle vous permet d’avoir accès à un nombre arbitraire d’experts en la matière dans différents domaines », a déclaré Clark. « Mais ce qui est vraiment important, c’est de connaître les bonnes questions à poser et d’avoir des intuitions sur ce qui serait intéressant si l’on croisait différentes idées provenant de nombreuses disciplines différentes. »

