ChatGPT a rejeté 250 000 demandes de fausses images de candidats le mois dernier, selon OpenAI. ChatGPT affirme avoir répondu à des millions de demandes de vote en dirigeant les utilisateurs vers des sources externes officielles. Certains autres chatbots ont adopté une approche différente.
À l’approche de l’élection présidentielle de cette semaine, OpenAI a répondu à des milliers de demandes visant à générer de fausses images de candidats.
La société a annoncé plus tôt cette année que ses produits d’IA disposaient de « garde-corps » pour empêcher les abus tels que les deepfakes et les chatbots qui usurpent l’identité des candidats.
Cette annonce intervient alors que l’on craint que l’IA ne fasse des ravages lors des campagnes, engendrant des deepfakes et des théories du complot à profusion qui se propageraient parmi les utilisateurs en ligne. En janvier, les électeurs du New Hampshire ont reçu de faux appels automatisés du faux président Joe Biden, les décourageant de voter à la primaire présidentielle de l’État ce mois-là.
OpenAI a déclaré que ChatGPT avait rejeté environ 250 000 demandes visant à générer des images de candidats à l’aide de son générateur d’art IA, DALL-E, au cours du mois précédant les élections.
« Au cours du mois précédant le jour du scrutin, nous estimons que plus de 250 000 demandes visant à générer des images DALL/E du président élu Trump, du vice-président Harris, du vice-président élu Vance, du président Biden et du gouverneur Walz ont été refusées par ChatGPT. » a déclaré OpenAI. Dans un article de blog vendredi.
OpenAI a précédemment annoncé qu’il demanderait à ChatGPT de répondre aux questions logistiques sur le vote en dirigeant les utilisateurs vers CanIVote.org, un site américain d’information sur le vote géré par l’Association nationale des secrétaires d’État. ChatGPT a fourni environ un million de réponses demandant aux utilisateurs de consulter les sites de vote au cours du mois se terminant le 5 novembre, a indiqué la société.
OpenAI a également déclaré qu’elle répondrait aux questions sur les résultats des élections le jour du scrutin en renvoyant les utilisateurs vers des médias tels que l’Associated Press et Reuters.
« Environ 2 millions de réponses ChatGPT le jour du scrutin et le lendemain incluaient ce message », a déclaré vendredi la société dans un article de blog.
ChatGPT a également évité d’exprimer des opinions politiques sur le candidat, contrairement aux chatbots comme Grok AI d’Elon Musk, qui ont exprimé leur enthousiasme face à la victoire de Trump.