Meta a mis à jour la politique de confidentialité de ses lunettes AI, Ray-Ban Meta, donnant au géant de la technologie plus de puissance sur les données qu’il peut stocker et utiliser pour former ses modèles d’IA.
Selon The Verge, la société a envoyé un e-mail à Ray-Ban Meta avec un avis que les fonctionnalités de l’IA seront désormais activées sur les lunettes, selon le Verge. Cela signifie que l’IA de Meta analysera les photos et les vidéos prises avec les lunettes tandis que certaines fonctionnalités d’IA sont activées. Meta sera également des enregistrements vocaux des clients pour améliorer ses produits, sans option pour opter.
Pour être clair, les méta-lunettes Ray-Ban n’enregistrent pas et ne stockent pas constamment tout autour du porteur. L’appareil stocke uniquement le discours que l’utilisateur dit après le mot de réveil «Hey Meta».
L’avis de confidentialité de Meta sur les services vocaux pour portable indique que les transcriptions et les enregistrements de voix peuvent être stockés pendant «jusqu’à un an pour aider à améliorer les produits de Meta». Si un client ne veut pas que Meta entraîne son IA sur sa voix, il devra supprimer manuellement chaque enregistrement de l’application Ray-Ban Meta Companion.
Le changement en termes est dans le sens des récents utilisateurs d’écho du changement de politique d’Amazon. Au mois dernier, Amazon exécutera toutes les commandes Echo via le cloud, supprimant l’option la plus conviviale pour traiter les données vocales localement.
Des entreprises comme Meta et Amazon sont impatientes de thésauriser ces tas d’enregistrements vocaux car ils sont des données de formation utiles pour leurs produits générateurs d’IA. Avec une gamme plus large d’enregistrements audio, l’IA de Meta peut faire un meilleur travail pour traiter différents accents, dialectes et modèles de parole.
Mais l’amélioration de son IA se fait au détriment de la confidentialité des utilisateurs. Un utilisateur peut ne pas comprendre que s’il utilise ses méta-lunettes Ray-Ban hors de la boîte pour photographier un amour, le visage de cette personne peut trouver son chemin dans les données de formation de Meta, par exemple. Les modèles d’IA derrière ces produits nécessitent un amour obscène du contenu, et il profite aux entreprises de former leur IA sur les données que leurs utilisateurs produisent déjà.
Événement TechCrunch
Berkeley, que
|
5 juin
Réserver maintenant
La thésaurisation des données des utilisateurs par Meta n’est pas nouvelle. Déjà, Meta forme ses modèles LLAMA AI sur les publications publiques que les utilisateurs américains partagent sur Facebook et Instagram.