Un groupe de 60 législateurs britanniques a signé une lettre ouverte accusant Google Deepmind d’avoir violé l’engagement de l’IA envers la sécurité avec la libération du Gemini 2.5 Pro. La lettre, publiée par le groupe de militants politiques Pauseai, a accusé la société de l’IA de briser l’engagement de la sécurité de l’IA frontalière signée lors du sommet international 2024.
Lors du sommet international qui a lié le Royaume-Uni et la Corée du Sud en février 2024, Google et d’autres signataires se sont engagés à « signaler publiquement » les capacités et les évaluations des risques du modèle, et ont révélé si des organisations externes telles que les installations gouvernementales de sécurité de l’IA étaient impliquées dans les tests.
Cependant, lorsque la société a publié le Gemini 2.5 Pro en mars 2025, la société n’a pas révélé ses cartes modèles. Il s’agit d’un document détaillant des informations importantes sur la façon de tester et de construire un modèle. Ceci malgré l’affirmation de l’entreprise selon laquelle le nouveau modèle a surpassé ses concurrents dans les références de l’industrie par «des marges significatives». Au lieu de cela, AI Lab a publié une carte de modèle de six pages simplifiée trois semaines après la première version du modèle en tant que version « Aperçu ». À l’époque, un expert en gouvernance de l’IA a qualifié le rapport de «léger» et de «inquiétude».
La lettre a appelé l’engagement de la société au sommet a qualifié le retard de Google et « une violation désagréable de confiance avec le gouvernement et le public » « sans respect ». La lettre a également des problèmes avec ce qu’on appelle une carte de modèle « minimale » « qui manque de » détails substantiels sur les évaluations externes « et le refus de Google de vérifier si les agences gouvernementales comme l’Institut britannique pour la sécurité de l’IA (AISI) ont participé au test.
Vendredi, dans un communiqué envoyé à Fortune, un porte-parole de Google Deepmind a déclaré que la société soutenait son « processus de transparence et de test et de rapport » et répondait aux engagements publics, notamment l’engagement de sécurité de Séoul Frontier AI.
« Dans le cadre du processus de développement, nos modèles ont subi des contrôles de sécurité stricts, y compris la Royaume-Uni AISI et d’autres testeurs tiers, et Gemini 2.5 ne fait pas exception », indique le communiqué.
Lorsque Google a publié une version de prévisualisation du Gemini 2.5 Pro, les critiques ont déclaré qu’il semble violer plusieurs autres promesses de sociétés de l’IA, y compris l’engagement de la Maison Blanche 2023 et le code de conduite volontaire sur l’intelligence artificielle, signée en octobre 2023.
La société a déclaré en mai qu’un « rapport technique » plus détaillé viendrait plus tard si la version finale de la « famille modèle » Gemini 2.5 Pro était entièrement disponible pour le public. La société a semblé fournir un long rapport fin juin, des mois après la sortie de la version complète.
Google n’est pas la seule entreprise qui semble retirer des divulgations sécurisées après avoir signé ces promesses. La carte Meta Model pour le modèle Frontier Llama 4 était aussi courte que la version de Google pour Gemini 2.5 Pro et se limite à des détails.
Plus tôt cette année, OpenAI a annoncé qu’il ne publierait pas de rapport de sécurité technique pour le nouveau modèle GPT-4.1. La société a fait valoir que GPT-4.1 « n’est pas un modèle de frontière » car il l’emporte sur les systèmes axés sur l’inférence tels que O3 et O4-MinI sur de nombreux repères.
Une lettre récente demande à Google de réaffirmer son engagement de sécurité de l’IA et demande aux entreprises technologiques de définir clairement leur déploiement comme le point où le modèle a été publié. Engagez-vous à publier des rapports d’évaluation de la sécurité pour les délais définis pour toutes les futures versions du modèle. Il fournit également une transparence complète pour chaque version en nommant des délais de test précis aux agences gouvernementales et aux tiers indépendants impliqués dans les tests.
« Si les grandes entreprises comme Google traitent ces engagements comme des options, elles risquent la dangereuse concurrence pour déployer une IA de plus en plus puissante sans mesures de sécurité appropriées », a déclaré Lord Brown de Tenton, sénateur et l’un des signataires de la lettre.