S’exprimant lundi à la conférence SXSW à Austin, le PDG de Bluesky, Jay Graber, a déclaré que le réseau social travaillait sur un cadre pour le consentement des utilisateurs sur la façon dont ils souhaitent que leurs données soient utilisées pour une IA générative.
La nature publique du réseau social de Bluesky a déjà permis à d’autres à former leurs systèmes d’IA sur le contenu des utilisateurs, comme cela a été découvert l’année dernière lorsque 404 médias sont tombés sur un ensemble de données construit à partir d’un million de messages bluesky organisés sur un visage étreint.
Le concurrent de Bluesky X, quant à lui, alimente les publications des utilisateurs dans la société sœur XAI pour aider à former son chatbot AI Grok. L’automne dernier, il a changé sa politique de confidentialité pour permettre aux troisième parties de former leur IA sur les messages X des utilisateurs. Cette décision, suivie des élections américaines qui ont élevé le statut du propriétaire d’Elon Musk au sein de l’administration Trump, ont aidé à alimenter un autre exode d’utilisateurs de X à Bluesky.
En conséquence, l’open source de Bluesky, Decentralized X Alternative est passé à plus de 32 millions d’utilisateurs en seulement deux ans.
Cependant, la demande de données de formation en IA signifie que le nouveau réseau social doit réfléchir à sa politique d’IA, même s’il ne prévoit pas de former son propre système d’IA aux articles des utilisateurs.
S’exprimant à SXSW, Graber a expliqué que l’entreprise a été engagée avec des partenaires pour développer un cadre pour les consentements des utilisateurs sur la façon dont nos données devraient être utilisées – ou non utilisées – pour une IA générative.
« Nous croyons vraiment au choix des utilisateurs », a déclaré Graber, disant que les utilisateurs seraient en mesure de spécifier la façon dont ils sont du contenu bluesky à utiliser.
« Cela pourrait être quelque chose de similaire à la façon dont les sites Web sont spécifiques où ils veulent être grattés par les moteurs de recherche ou non », a-t-elle poursuivi.
«Les moteurs de recherche peuvent toujours gratter le site Web, où vous avez ou non, car le site Web est ouvert sur Internet public. Mais en général, ce fichier robots.txt est respecté par de nombreux moteurs de recherche », a-t-elle déclaré. «Vous avez donc besoin de quelque chose pour être largement adopté et avoir des utilisateurs, des entreprises et des régulateurs pour accompagner ce cadre. Mais je pense que c’est quelque chose qui pourrait fonctionner ici. «
La proposition, qui est actuellement sur GitHub, impliquerait d’obtenir des consentements des utilisateurs au niveau du compte ou même au niveau du poste, puis demanderait à d’autres sociétés de respecter ce paramètre.
« Nous y travaillons avec d’autres personnes dans l’espace préoccupé par la façon dont l’IA est affirmée comment nous considérons nos données », a ajouté Graber. «Je pense que c’est une direction positive à prendre.»