Un agent d’IA s’est déchaîné chez Meta, exposant les données sensibles de l’entreprise et des utilisateurs à des employés qui n’étaient pas autorisés à y accéder.
Selon un rapport d’incident, qui a été consulté et rapporté par The Information, un employé de Meta a publié sur un forum interne une demande d’aide pour une question technique – ce qui est une action standard. Cependant, un autre ingénieur a demandé à un agent IA de l’aider à analyser la question, et l’agent a fini par publier une réponse sans demander à l’ingénieur la permission de la partager. Meta a confirmé l’incident à The Information.
Il s’avère que l’agent IA n’a pas donné de bons conseils. L’employé qui a posé la question a fini par agir sur la base des conseils de l’agent, ce qui a mis par inadvertance d’énormes quantités de données relatives à l’entreprise et aux utilisateurs à la disposition des ingénieurs, qui n’étaient pas autorisés à y accéder, pendant deux heures.
Meta a qualifié l’incident de « Sev 1 », soit le deuxième niveau de gravité le plus élevé dans le système interne de l’entreprise pour mesurer les problèmes de sécurité.
Les agents Rogue AI ont déjà posé un problème chez Meta. Summer Yue, directrice de la sécurité et de l’alignement chez Meta Superintelligence, a publié sur X le mois dernier décrivant comment son agent OpenClaw a fini par supprimer l’intégralité de sa boîte de réception, même si elle lui a dit de confirmer avec elle avant de prendre des mesures.
Néanmoins, Meta semble optimiste quant au potentiel de l’IA agentique. La semaine dernière, Meta a acheté Moltbook, un site de réseau social de type Reddit permettant aux agents OpenClaw de communiquer entre eux.

