Un nombre croissant de navigateurs expérimentent des fonctionnalités agents qui effectueront des actions en votre nom, comme réserver des billets ou acheter différents articles. Cependant, ces capacités agents comportent également des risques de sécurité pouvant entraîner une perte de données ou d’argent.
Google a détaillé son approche pour gérer la sécurité des utilisateurs sur Chrome à l’aide de modèles d’observateurs et du consentement à l’action de l’utilisateur. La société a présenté un aperçu des capacités agents sur Chrome en septembre et a annoncé que ces fonctionnalités seraient déployées dans les mois à venir.
La société a déclaré qu’elle utilisait l’aide de quelques modèles pour contrôler les actions des agents. Google a déclaré avoir créé un outil d’alignement des utilisateurs utilisant Gemini pour voter les éléments d’action construits par le modèle de planificateur pour une tâche particulière. Si le modèle critique pense que les tâches planifiées ne servent pas l’objectif de l’utilisateur, il demande au modèle planificateur de repenser la stratégie. Google a noté que le modèle critique ne voit que les métadonnées de l’action proposée et non le contenu Web réel.

De plus, pour empêcher les agents d’accéder à des sites non autorisés ou non fiables, Google utilise des ensembles d’origines d’agent, qui limitent le modèle à l’accès aux origines en lecture seule et aux origines en lecture-écriture. L’origine en lecture seule correspond aux données à partir desquelles Gemini est autorisé à consommer du contenu. Par exemple, sur un site commercial, les listes sont pertinentes par rapport à la tâche, mais les bannières publicitaires ne le sont pas. De même, Google a déclaré que l’agent n’est autorisé à cliquer ou à taper que sur certaines iframes d’une page.
« Cette délimitation impose que seules les données d’un ensemble limité d’origines soient disponibles pour l’agent, et ces données ne peuvent être transmises qu’aux origines inscriptibles. Cela limite le vecteur de menace de fuites de données d’origines croisées. Cela donne également au navigateur la possibilité d’imposer une partie de cette séparation, par exemple en n’envoyant même pas au modèle des données qui se trouvent en dehors de l’ensemble lisible », a déclaré la société dans un article de blog.
Google surveille également la navigation dans les pages en enquêtant sur les URL via un autre modèle d’observateur. Cela peut empêcher la navigation vers des URL nuisibles générées par des modèles, a indiqué la société.

Le géant de la recherche a déclaré qu’il remettait également les reins aux utilisateurs pour des tâches sensibles. Par exemple, lorsqu’un agent tente d’accéder à un site sensible contenant des informations telles que vos données bancaires ou médicales, il le demande d’abord à l’utilisateur. Pour les sites qui nécessitent une connexion, il demandera à l’utilisateur l’autorisation de permettre à Chrome d’utiliser le gestionnaire de mots de passe. Google affirme que le modèle de l’agent n’est pas exposé aux données de mot de passe. La société a ajouté qu’elle demanderait aux utilisateurs avant de prendre des mesures comme effectuer un achat ou envoyer un message.
Événement Techcrunch
San Francisco
|
13-15 octobre 2026
Google a déclaré qu’en plus de cela, il dispose également d’un classificateur à injection rapide pour empêcher les actions indésirables et qu’il teste également des capacités agents contre les attaques créées par les chercheurs.
Les fabricants de navigateurs IA prêtent également attention à la sécurité. Plus tôt ce mois-ci, Perplexity a publié un nouveau modèle de détection de contenu open source pour empêcher les attaques par injection rapide contre les agents.

