
Lorsque Meta a ouvert les précommandes pour ses lunettes intelligentes Ray-Ban, la société a clairement indiqué une chose. Cela signifie que votre vie privée est en sécurité. « Les lunettes intelligentes Ray-Ban Meta sont conçues avec la confidentialité au cœur de leurs préoccupations », indiquait un communiqué publié à l’époque en septembre 2023. Le marketing était clair sur la confidentialité des utilisateurs, vous avez donc peut-être vu des gens les porter en ville, dans les publicités du Super Bowl et même dans des affaires judiciaires relatives à la sécurité des enfants sur la propre plate-forme de Meta. Des agents de l’ICE les porteraient également sur les lieux.
Ce que vous ne voyez peut-être pas, c’est vous-même dans la ligne de mire de la caméra des lunettes. Aujourd’hui, une nouvelle étude et un procès fédéral déposé peu de temps après affirment que l’entreprise est encore moins transparente que ses lentilles épaisses, alléguant que l’entreprise transmet secrètement des images d’utilisateurs à des travailleurs humains à l’étranger plutôt qu’à ses propres modèles d’IA. Ces travailleurs ont tout vu, depuis les personnes se déshabillant jusqu’aux documents financiers sensibles, grâce aux utilisateurs qui ont choisi de partager leurs données à des fins de formation à l’IA.
« Certaines vidéos montrent quelqu’un allant aux toilettes ou enlevant ses vêtements. Je ne pense pas qu’ils le sachent. S’ils le savaient, ils ne l’enregistreraient pas », a déclaré l’ouvrier, qui regardait la vidéo avec ses lunettes.
Fin février, les publications suédoises Svenska Dagbladet et Göteborgs-Posten ont publié une enquête sur le pipeline de formation en IA de Meta, révélant que l’entrepreneur kenyan de Meta aidait à former l’intelligence artificielle qui alimente les lunettes, qui comprennent les modèles Ray-Ban Meta Wayfarer (Gen 2), Ray-Ban Display et Oakley Meta HSTN. Ce qu’ils ont vu était incroyable.
« Nous voyons de tout, des salons aux corps nus », ont déclaré les travailleurs dans l’étude. « La base de données de Meta contient ce type de contenu. »
Les utilisateurs qui choisissent de partager leurs données à des fins de formation à l’IA voient pratiquement chaque partie de leur vie enregistrée et, par conséquent, examinée par l’IA en cours de formation ou par les humains derrière elle. Elles comprennent des images de personnes dans les toilettes, se déshabillant, regardant de la pornographie et, dans au moins un incident documenté, des lunettes laissées sur une table de chevet qui ont capturé un partenaire qui n’a pas consenti à être enregistré.
Les sous-traitants de Meta – des annotateurs de données qui apprennent à l’IA à interpréter les images en étiquetant manuellement le contenu – ont également déclaré avoir consulté les numéros de carte de crédit et les documents financiers des utilisateurs. Lors de l’annonce de l’étude, Meta a répondu par l’intermédiaire d’un porte-parole : « Lorsque des personnes partagent du contenu avec Meta AI, comme d’autres sociétés, nous pouvons faire appel à des sous-traitants pour examiner ces données afin d’améliorer l’expérience des lunettes, comme décrit dans notre politique de confidentialité. Ces données sont d’abord filtrées pour protéger la vie privée des personnes.
début du recours collectif
Ce rapport a déclenché une action en justice. Le 4 mars, les plaignants Gina Barton et Mateo Kanu ont intenté un recours collectif contre Meta Platforms (et le fabricant américain de lunettes Luxottica), accusant l’entreprise d’avoir violé les lois fédérales et étatiques en omettant de divulguer que les vidéos tournées avec les lunettes seraient envoyées à ses propres serveurs, puis à un sous-traitant au Kenya pour un étiquetage manuel. Citant de nouvelles lois et réglementations sur la confidentialité dues à l’essor de l’IA et de l’économie de la surveillance, le procès déclare : « Dans ce contexte », Meta Inc. a cité l’intérêt croissant du public pour la vie privée et la sécurité, et a lancé les lunettes avec la « promesse rassurante que ces lunettes sont « conçues en gardant à l’esprit votre vie privée et sous votre contrôle ».
Brian Hall, avocat spécialisé dans la protection de la vie privée et l’IA chez Stubbs Alderton & Markills, a déclaré que les révélations étaient à la fois alarmantes et prévisibles. « C’est effrayant. C’est exactement ce que nous imaginions tous », a déclaré Hall à Fortune. « Je suis assez vieux pour me rappeler qu’il y a 10 ou 12 ans, Google a introduit les lunettes, et on s’inquiétait du fait que les gens allaient aux toilettes avec leurs lunettes. Nous sommes de nouveau dans cette situation. »
(Lorsque Google a dévoilé son prototype de Google Glass en 2013, celui-ci a déclenché un tollé général face à la perte de surveillance, de consentement et d’anonymat. Les bars, restaurants, casinos et clubs de strip-tease ont carrément interdit l’appareil, et les porteurs ont été qualifiés avec dérision de « trous dans le verre ».)
Hall a déclaré que la responsabilité reste vague, en partie parce que les propres conditions de service de Meta stipulent que les annotateurs de données « examinent vos interactions avec l’IA, y compris le contenu de vos conversations et messages vers l’IA », et que cet examen « peut être automatisé ou manuel ». « Si nous lisons leur politique de confidentialité, il n’y aura aucune déclaration claire indiquant qu’ils ne le font pas », a déclaré Hall. « En ce qui concerne leur responsabilité légale, je ne sais pas, mais il s’agit certainement d’une responsabilité en matière de relations publiques. Il s’agit d’informations et d’images parmi les plus sensibles qui soient. »
Hall a déclaré que sa plus grande préoccupation ne concernait pas réellement les porteurs de lunettes eux-mêmes, mais les autres personnes coincées dans les montures. « Les passants, les gens qui sont filmés et identifiés, ce sont eux qui courent un risque », a-t-il déclaré. « Malheureusement, nos lois sur la confidentialité ne sont pas conçues pour protéger ces personnes. Elles sont conçues pour protéger les personnes qui portent des lunettes et leur capacité à contrôler leurs données. »
Se référant aux informations selon lesquelles un homme aurait utilisé ces lunettes pour « coacher » des hommes lors d’un témoignage devant un tribunal britannique, Hall a déclaré que Meta aurait envisagé d’ajouter des capacités de reconnaissance faciale aux lunettes, ce qui augmenterait considérablement le risque. « Aujourd’hui, nous nous éloignons vraiment d’un monde où l’on pouvait rencontrer quelqu’un dans la rue, dans une salle d’audience, dans un bar, et peut-être le trouver en le recherchant sur Facebook ou Instagram. Mais c’est instantané. C’est automatique, sans effort. Vous pourriez être assis dans une salle d’audience en train d’identifier un témoin. »
Hall affirme que les lois existantes ne sont tout simplement pas conçues pour ce que permettent les verres à méthamphétamine. « Je ne sais pas si les lois existantes sont vraiment suffisantes pour nous protéger des risques liés à ce que font actuellement Meta et d’autres sociétés de médias sociaux », a-t-il déclaré. « Cela est en quelque sorte intégré aux lois sur la protection de la vie privée, mais elles sont rarement appliquées telles quelles, et cela bouleverse complètement tout le cadre sur lequel elles ont été construites. »
« Il ne semble pas que les gens abordent ce problème de manière significative », a-t-il déclaré, soulignant que les réglementations actuelles sont fragmentaires et ne répondent pas pleinement aux problèmes de confidentialité. Une fois la question de la vie privée abordée, « tout le reste n’est qu’une façade », a-t-il déclaré.
Mehta n’a pas répondu aux demandes de commentaires.

