Common Sense Media, une cote d’offres à but non lucratif axée sur les enfants et les évaluations des médias et de la technologie, a publié vendredi son évaluation des risques des produits Gemini AI de Google. Bien que l’organisation ait constaté que l’IA de Google a clairement dit aux enfants qu’il s’agissait d’un ordinateur, pas d’un ami – quelque chose qui est associé à aider à stimuler la pensée et la psychose des individus émotionnellement vulnérables – cela a suggéré que nos autres fronts.
Notamment, Common Sense a déclaré que le troisième «moins de 13 ans» et «Teen Experience» de Gemini semblait être les versions adultes de Gemini sous le capot, avec seulement quelques caractéristiques de sécurité supplémentaires ajoutées au sommet. L’organisation estime que pour que les produits d’IA soient vraiment plus sûrs pour les enfants, ils devraient être construits en pensant à la sécurité des enfants à partir de zéro.
Par exemple, son analyse a révélé que les Gémeaux pouvaient toujours partager un matériel «inapproprié et dangereux» avec des enfants, pour lesquels ils peuvent ne pas être prêts, incluent des informations liées au sexe, aux drogues, à l’alcool et à d’autres conseils de santé non métalliques.
Ce dernier pourrait être en particulier pour les parents, car l’IA aurait joué un rôle dans certains suicides d’adolescents ces derniers mois. Openai fait face à son premier procès pour mort injustifiée après qu’un garçon de 16 ans est décédé par suicide après avoir prétendument consulté Chatgpt pendant des mois à propos de ses plans, ayant réussi à contourner les garde-corps de sécurité du chatbot. Auparavant, le personnage des fabricants de compagnies AI. Ai a également été poursuivi sur un adolescent utilise le suicide.
De plus, l’analyse intervient alors que les fuites de nouvelles indiquent qu’Apple considère les Gémeaux comme le LLM (modèle de grande langue) qui aidera à alimenter son prochain Siri Aitabled, qui sortira l’année prochaine. Cela pourrait présenter plus d’adolescents aux risques, à moins que Apple atténue en quelque sorte les problèmes de sécurité.
Le bon sens a également déclaré que les produits de Gemini pour les enfants et les adolescents ignoraient comment les jeunes utilisateurs avaient besoin de conseils et d’informations différents que les personnes plus âgées. En conséquence, les deux ont été étiquetés comme «un risque élevé» dans la note globale, malgré les filtres ajoutés pour la sécurité.
« Gemini obtient des bases correctes, mais cela a des travaux sur les détails », a déclaré Robbie Torney, directrice principale des médias de Common Sense Media, dans un statments sur la nouvelle évaluation. « Une plate-forme d’IA pour les enfants devrait se rencontrer, ils ne sont pas adoptés une approche unique pour les enfants à différentes étapes de développement. Pour que l’IA soit sûre et efficace pour les enfants, il doit être conçu avec leurs besoins et leur développement à l’esprit, pas seulement une version modifiée d’un produit adulte », a ajouté Torney.
Événement TechCrunch
San Francisco
|
27-29 octobre 2025
Google a repoussé l’assemblage, tout en notant que ses caractéristiques de sécurité s’amélioraient.
Le Compay a déclaré à TechCrunch qu’il avait des politiques et des garanties spécifiques en place pour les utilisateurs de moins de 18 ans pour aider à prévenir les résultats nocifs et qu’il se révèle rouge et consulter des experts externes pour améliorer ses protections. Cependant, il a également admis que les responsabilités de Gemini ne fonctionnaient pas comme prévu, ce qui a ajouté des garanties supplémentaires pour répondre à ces préoccupations.
L’entreprise a souligné (comme le bon sens l’avait également désactivé) qu’elle a des garanties pour empêcher ses modèles de s’engager dans des conversations qui pourraient donner un semblant de relations réelles. De plus, Google a suggéré que le rapport de Common Sense semblait avoir fait référence aux fonctionnalités qui n’étaient pas disponibles pour les utilisateurs de moins de 18 ans, mais il n’avait pas accès à l’organisation utilisée dans ses tests pour en être sûr.
Common Sense Media a précédemment effectué d’autres évaluations des services d’IA, comprenant ceux d’Openai, de la perplexité, de Claude, de Meta AI et plus encore. Il a constaté que Meta Ai et le caractère. La perplexité a été jugée à haut risque, le chatppt a été étiqueté «modéré» et Claude (ciblé sur les utilisateurs 18 ans et plus) a été à risque minimal.