Google, suivant les talons d’Openai, a publié une proposition de politique dans l’appel de l’administration Trump à un «plan d’action de l’IA» national. Le géant de la technologie a approuvé de faibles restrictions sur le droit d’auteur sur une formation en IA, ainsi que des contrôles d’exportation «d’équilibre» qui «protégeaient les blancs de sécurité nationale nous permettant des opérations commerciales et mondiales».
« Les États-Unis doivent poursuivre une politique économique internationale active pour défendre les valeurs américaines et soutenir l’innovation de l’IA à l’échelle internationale », a écrit Google dans le document. «Pendant trop longtemps, l’élaboration des politiques de l’IA a accordé une attention aux risques, ignorant souvent les coûts que le ragulation erronée peut avoir l’innovation, la compétence nationale et le leadership scientifique – une dynamique qui commence à se déplacer sous la nouvelle administration.
L’une des recommandations les plus controversées de Google concerne l’utilisation du matériel protégé IP.
Google soutient que «l’utilisation équitable et les exceptions d’exploration de textes et de données» sont «essentielles» au développement de l’IA et à l’innovation scientifique liée à A. Comme OpenAI, la société cherche à codifier le droit pour les TI et ses concurrents de s’entraîner sur des données publiques – y compris les données protégées par le droit d’auteur – en grande partie sans restriction.
« Ces exceptions permettent d’utiliser du matériel protégé par le droit d’auteur pour la formation de l’IA sans avoir un impact nordique sur les droits », a écrit Google, « et éviter les négociations souvent hautement imprévisibles, déséquilibrées et longues avec les détenteurs de données pendant le développement du modèle ou l’expérimentation scientifique.
Google, qui aurait formé un certain nombre de modèles sur des données publiques, protégées par le droit d’auteur, lutte contre les poursuites avec des données ODO qui accusent la société de ne pas les informer et les compenser avant de le faire. Les tribunaux américains n’ont pas encore décidé que sa doctrine effective à usage équitable protège les développeurs de l’IA à partir de litiges IP.
Dans sa proposition de la police de l’IA, Google conteste également certaines exportations imposées par l’administration Biden, qui dit «peut saper les objectifs de complétude économique» en «imposant des charges disproportées aux fournisseurs de services cloud américains». Cela contraste avec les déclarations des concurrents de Google comme Microsoft, qui en janvier a déclaré qu’il était «confiant» qui pourrait «se conformer pleinement» aux règles.
Surtout, les règles d’exportation, qui cherchent à limiter la disponibilité des puces d’IA avancées dans les pays défavorisés, découvrent des exemptions pour les entreprises de confiance à la recherche de grands grappes de puces.
Ailleurs dans ses propés, Google appelle à des investissements «à long terme, soutenus» dans la R&D nationale fondamentale, repoussant les efforts fédéraux récents pour réduire les dépenses et éliminer les subventions. La société a déclaré que le gouvernement devrait publier des données qui pourraient être utiles pour la formation commerciale d’IA et allouer des financements à la «R&D du début du marché», tandis que l’informatique et les modèles sont «largement» pour les scientifiques et les institutions.
Soulignant l’environnement réglementaire chaotique créé par les lois américaines sur les patchwork de l’IA, Google a exhorté le gouvernement à adopter une législation fédérale sur une IA, incluent un cadre complet de confidentialité et de sécurité. Un peu plus de deux mois après le début de 2025, le nombre de factures d’IA en attente aux États-Unis est passée à 781, selon un outil de suivi en ligne.
Google cations le gouvernement américain contre l’imposition de ce que cela se comporte comme des obligations onéreuses concernant les systèmes d’IA, comme les obligations de libabilité d’utilisation. Dans de nombreux cas, soutient Google, le développeur d’un modèle «a peu ou pas de visibilité ou de contrôle» sur la façon dont un modèle est utilisé et ne devrait donc pas supporter la responsabilité de l’utilisation abusive.
Historiquement, Google s’est opposé à des lois comme la Californie battue SB 1047, qui a clairement exposé ce qui constituerait des précautions qu’un développeur AI, un IA devrait prendre avant de publier un modèle et dans lequel les développeurs pourraient être tenus responsables des dommages induits par le modèle.
«Même dans les cas où un développeur fournit un modèle directement aux déploieurs, les déploieurs seront souvent les mieux placés pour comprendre les risques des utilisations de DownStream, la gestion des risques d’emploi et mener après le marché
Surveillance et journalisation », a écrit Google.
Google dans sa proposition appelle également des exigences de divulgation comme celles envisagées par l’UE «trop large» et a déclaré que le gouvernement américain devrait s’opposer aux règles de transparence qui nécessitent «des secrets commerciaux de divulgation, permettre aux concurrents de dupliquer les produits ou de compromettre la sécurité nationale par la feuille de route aux adversaires sur la façon de contourner les protections ou les modèles de prison. «
Un nombre croissant de pays et d’États ont adopté des lois obligeant les développeurs en IA à en révéler plus sur le fonctionnement de leurs systèmes. L’AB-2013 de la Californie oblige les entreprises à développer des systèmes d’IA publient un résumé de haut niveau des ensembles de données qu’ils ont utilisés pour former leur système. Dans l’UE, pour se conformer à la loi sur l’IA une fois qu’il est entré en vigueur, les entreprises devront fournir des déploieurs de modèles avec des instructions détectées sur l’opération, les limitations et les risques associés au modèle.

