Plus de deux ans après que Google a été capturé à plat par la sortie de Chatgpt d’Openai, la société a considérablement accéléré le rythme.
Fin mars, Google a lancé un modèle de raisonnement en IA, Gemini 2.5 Pro, qui mène l’industrie sur plusieurs repères mesurant les capacités de codage et de mathématiques. Ce lancement est intervenu trois mois seulement après que le géant de la technologie a débuté un autre modèle, Gemini 2.0 Flash, qui était à la pointe de la technologie.
Le directeur de Google et chef du produit pour Gemini, Tulsee Doshi, a déclaré à TechCrunch dans une interview que la cadence croissante des lancements du modèle de la société faisait partie d’un effort concerté pour suivre l’industrie de l’IA en évolution rapide.
« Nous essayons toujours de comprendre quelle est la bonne façon de mettre ces modèles, c’est la bonne façon d’obtenir des commentaires », a déclaré Doshi.
Mais le délai de sortie radié semble avoir coûté un coût. Google n’a pas encore publié de rapports de sécurité pour ses derniers modèles, notamment Gemini 2.5 Pro et Gemini 2.0 Flash, ce qui soulève la priorité de la vitesse de transparence.
Aujourd’hui, il est assez standard pour les laboratoires AI Frontier – y compris OpenAI, anthropique et méta – pour signaler les tests de sécurité, les évaluations des performances et utiliser des cases chaque fois qu’ils lancent un nouveau modèle. Ces rapports, somnolents appelés «cartes système» ou «cartes modèles», ont été proposés il y a des années par des chercheurs de l’industrie et du monde universitaire. Google a en fait été l’un des premiers à suggérer des cartes modèles dans le document de recherche de 2019, les appelant «une approche pour des pratiques responsables, transparentes et responsables dans l’apprentissage automatique».
Doshi a déclaré à TechCrunch que la société avait été publiée une carte modèle pour Gemini 2.5 Pro Becaus qu’il considère que le modèle est une version «expérimentale». L’objectif de ces versions expérimentées est de mettre un modèle d’IA de manière limitée, d’obtenir des commentaires et d’idéter le modèle avant un lancement de la production, a-t-elle déclaré.
Google a l’intention de publier la carte modèle de Gemini 2.5 Pro lorsqu’elle fait des avaibles du modèle, selon Doshi, ajoutant que la société a déjà effectué des tests de sécurité et une équipe rouge adversaire.
Dans un message de suivi, un porte-parole de Google a déclaré à TechCrunch que la sécurité continue d’être une «priorité absolue» pour l’entreprise et qu’elle prévoyait de publier plus de documents qui entourent les modèles d’IA, incluaient Gemini 2.0 Flash, à l’avenir. Gemini 2.0 Flash, qui est généralement disponible, manque également d’une carte modèle. La dernière carte modèle que Google a publiée était pour Gemini 1.5 Pro, qui est sortie il y a plus d’un an.
Les cartes système et les cartes modèles fournissent des informations utiles et peu flatteuses, parfois – que les entreprises font toujours de la publicité sur leur IA. Par exemple, la carte System OpenAI a été publiée pour son modèle de raisonnement O1 a révélé que le modèle de l’entreprise avait tendance à «schécher» contre les humains et à poursuivre secrètement des objectifs.
Dans l’ensemble, la communauté de l’IA perçoit ces rapports comme des bons factures pour soutenir les évaluations indépendantes de la recherche et de la sécurité, mais les rapports ont pris une importance supplémentaire ces dernières années. Alors que Transformer avait précédemment annulé, Google a déclaré au gouvernement américain en 2023 qu’il publierait des rapports de sécurité pour tous les «Nordicant», les versions publiques du modèle d’IA «dans la portée». La Société s’est engagée similaire envers d’autres gouvernements, promettant de «fournir la transparence publique».
Aux États-Unis, aux États-Unis, aux États-Unis pour les développeurs de modèles d’IA, ont eu des efforts réglementaires aux niveaux fédéral et des États aux États-Unis. Cependant, ils ont été placés avec une adoption et un succès limités. L’une des tentatives les plus notables a été le Veto California Bill SB 1047, à laquelle l’industrie technologique s’est opposée avec véhémence. Les législateurs ont également mis en place une législation de Fortth qui autoriserait le US IA Safety Institute, l’organisme américain de fixation des normes de l’IA, pour établir des lignes directrices pour les réwakes du modèle. Cependant, l’Institut de sécurité est désormais confronté à des réductions possibles sous l’administration Trump.
D’après toutes les apparences, Google prend du retard sur une partie de sa promesse de se rendre compte des tests de modèle tout en expédiant des modèles d’expédition plus rapidement que jamais. C’est un mauvais précédent, soutiennent de nombreux experts – d’autant plus que ces modèles deviennent plus capables et sophistiqués.