OpenAI a annoncé mardi la publication d’un ensemble d’invites que les développeurs peuvent utiliser pour rendre leurs applications plus sûres pour les adolescents. Le laboratoire d’IA a déclaré que l’ensemble des politiques de sécurité des adolescents peut être utilisé avec son modèle de sécurité à poids ouvert connu sous le nom de gpt-oss-safeguard.
Plutôt que de partir de zéro pour trouver comment rendre l’IA plus sûre pour les adolescents, les développeurs peuvent utiliser ces invites pour renforcer ce qu’ils construisent. Ils abordent des problèmes tels que la violence graphique et le contenu sexuel, les idéaux et comportements corporels nocifs, les activités et défis dangereux, les jeux de rôle romantiques ou violents et les biens et services soumis à une limite d’âge.
Ces politiques de sécurité sont conçues comme des invites, ce qui les rend facilement compatibles avec d’autres modèles que gpt-oss-safeguard, bien qu’elles soient probablement plus efficaces au sein du propre écosystème d’OpenAI.
Pour rédiger ces invites, OpenAI a déclaré avoir travaillé avec les organismes de surveillance de la sécurité de l’IA Common Sense Media et Everyone.ai.
« Ces politiques basées sur des invites contribuent à établir un seuil de sécurité significatif dans l’ensemble de l’écosystème, et comme elles sont publiées en open source, elles peuvent être adaptées et améliorées au fil du temps », a déclaré Robbie Torney, responsable de l’IA et des évaluations numériques chez Common Sense Media, dans un communiqué.
OpenAI a noté sur son blog que les développeurs, y compris les équipes expérimentées, ont souvent du mal à traduire les objectifs de sécurité en règles opérationnelles précises.
« Cela peut entraîner des lacunes dans la protection, une application incohérente ou un filtrage trop large », a écrit la société. « Des politiques claires et bien définies constituent une base essentielle pour des systèmes de sécurité efficaces. »
Événement Techcrunch
San Francisco, Californie
|
13-15 octobre 2026
OpenAI admet que ces politiques ne constituent pas une solution aux défis complexes liés à la sécurité de l’IA. Mais il s’appuie sur ses efforts antérieurs, notamment en matière de protection au niveau des produits, telles que le contrôle parental et la prédiction de l’âge. L’année dernière, OpenAI a mis à jour les directives pour ses grands modèles de langage – connus sous le nom de Model Spec – afin de déterminer comment ses modèles d’IA doivent se comporter avec les utilisateurs de moins de 18 ans.
Cependant, OpenAI n’a pas lui-même le bilan le plus propre. L’entreprise fait face à plusieurs poursuites intentées par les familles de personnes décédées par suicide après une utilisation extrême de ChatGPT. Ces relations dangereuses se forment souvent après que l’utilisateur a éclipsé les protections du chatbot, et aucun garde-fou d’un modèle n’est totalement impénétrable. Néanmoins, ces politiques constituent au moins un pas en avant, d’autant plus qu’elles peuvent aider les développeurs indépendants.

