Un système de pow AA pourrait bientôt assumer la responsabilité de l’évaluation des dommages potentiels et des risques de confidentialité pouvant atteindre 90% des mises à jour faites à Meta Apps comme Instagram et WhatsApp, accord aux documents internes qui auraient été consultés par NPR.
NPR affirme qu’un agitation de 2012 entre Facebook (maintenant Meta) et la Federal Trade Commission exige que la société procède à des examens de confidentialité de ses produits, évaluant les risques de toute mise à jour potentielle. Jusqu’à présent, ces examens ont été largement conduits par les évaluateurs humains.
Dans le cadre du nouveau système, Meta aurait déclaré que les équipes de produits seraient invitées à remplir une quête sur leur travail, puis recevront généralement une «décision instantanée» avec des risques identifiés par l’IA, ainsi que des exigences qu’une mise à jour ou une fonctionnalité doit répondre avant les lancements.
Cette approche centrée sur l’IA permettrait à Meta de mettre à jour ses produits plus rapidement, mais un cadre de formation a déclaré à NPR qu’il créait également des «risques plus élevés», car «les externalités négatives des changements de produits sont moins susceptibles d’être empêchées avant de commencer dans le monde.
Dans un communiqué, Meta a semblé confirmer qu’il modifie son système d’examen, mais il a insisté sur le fait que seules les «décisions à faible risque» seront automatisées, tandis que «l’expertise humaine» sera toujours utilisée pour examiner «nouveau et complexe».