Jeudi, après avoir lancé son modèle d’IA le plus puissant à ce jour, Gemini 2.5 Pro, Google a publié un rapport technique montrant les résultats de ses évaluations internes de la sécurité. Cependant, le rapport est léger sur les détails, disent les experts, ce qui rend difficile la détermination des risques que le modèle pourrait poser.
Les rapports techniques fournissent des informations utiles et peu flatteuses, parfois – que les entreprises annoncent toujours largement sur leur IA. Dans l’ensemble, la communauté de l’IA considère ces rapports comme des bons factures pour soutenir les évaluations indépendantes de la recherche et de la sécurité.
Google adopte une approche de rapport de sécurité différente de celle de certains de ses concurrents de l’IA, publiant des rapports techniques uniquement une fois qu’il considère un modèle qui a obtenu son diplôme du stage «expérimental». La société n’inclut pas non plus les résultats de toutes ses évaluations de «capacité dangereuse» dans ces articles; Il les réserve pour un audit séparé.
Plusieurs experts avec lesquels TechCrunch ont parlé ont toujours été supposés par la rareté du rapport Gemini 2.5 Pro, qu’ils nadent pas le cadre de sécurité frontière de Google (FSF). Google a introduit le FSF l’année dernière dans ce qu’il a décrit comme un effort pour identifier les futures capacités d’IA qui pourraient causer un «préjudice grave».
« Ce (report) est très clairsemé, des informations minimales contient, et se maîtrisent le modèle après que le modèle a déjà été rendu public », a déclaré à TechCrunch Peter Wildeford, co-fondateur de l’Institute for IA Policy and Strategy, à TechCrunch. «Il est impossible de vérifier si Google est à la hauteur de ses engagements publics et donc impossible d’évaluer la sécurité et la sécurité de leurs modèles.
Thomas Woodside, co-fondateur du projet Secure AI, a déclaré que bien qu’il soit heureux que Google ait publié un rapport pour Gemini 2.5 Pro, il n’est pas convaincu de l’engagement de l’entreprise à fournir des évaluations de sécurité en temps opportun. Woodside a souligné que la dernière fois que Google a publié les résultats des tests de capacité dangereux était en juin 2024 – pour un modèle annoncé en février de la même année.
N’inspirant pas beaucoup de confiance, Google n’a pas mis à disposition pour Gemini 2.5 Flash, un modèle plus petit et plus efficace que la société a annoncé la semaine dernière. Un porte-parole a déclaré à TechCrunch qu’un rapport pour Flash «arrive bientôt».
« J’espère que c’est une promesse de Google pour commencer à publier des mises à jour plus fréquentes », a déclaré Woodside à TechCrunch. « Ces mises à jour devraient inclure les résultats des évaluations des modèles qui n’ont pas encore été déployés publiquement, ressentir que ces modèles pourraient également présenter des risques graves. »
Google a peut-être été l’un des premiers laboratoires d’IA à réparer des rapports standardisés pour les modèles, mais ce n’est pas le seul à avoir été accusé de sous-tendre la transparence ces derniers temps. Meta a publié une évaluation de sécurité tout aussi étaunée de ses nouveaux modèles Open Llama 4, et OpenAI a choisi de ne publier aucun rapport pour sa série GPT-4.1.
La tête de Google est une assurance que le géant de la technologie a fait des régulateurs pour tenir un niveau élevé des tests et des rapports de sécurité de l’IA. Il y a deux ans, Google a déclaré au gouvernement américain qu’il publierait des rapports de sécurité pour tous les modèles d’IA publics «nordiques» «dans la portée». L’entreprise a suivi cette promesse avec des engagements similaires envers d’autres pays, s’engageant à «fournir des produits d’aide à l’aide publique».
Kevin Bankston, un conseiller principal sur une gouvernance I a au Center for Democracy and Technology, a qualifié la tendance de Spraradic et de vagues un «race vers le bas» sur une sécurité d’IA.
« Combiné avec des rapports selon lesquels des laboratoires concurrents comme OpenAI ont leur temps de test de sécurité avant la sortie de mois à jours, cette maigre documentation pour le meilleur modèle d’IA de Google raconte une histoire troublante d’une course vers le bas sur la sécurité et la transparence de l’IA alors que les entreprises précipitent leurs modèles pour commercialiser TechCrunch.
Google a déclaré dans des déclarations selon lesquelles, bien qu’il ne soit pas détalé dans ses rapports techniques, il effectue des tests de sécurité et «une équipe rouge adversaire» pour les modèles avant la sortie.