Openai dit qu’il apportera des modifications à la façon dont il met à jour les modèles d’IA qui Power Chatgpt, à la suite d’un incident qui a fait devenir trop sycophantique de la plate-forme pour de nombreux utilisateurs.
Le week-end dernier, après Openai a déployé un GPT-4o modifié, le modèle par défaut alimentant les utilisateurs de chatpt sur les réseaux sociaux a noté que Chatgpt avait commencé à répondre d’une manière trop valide et agréable. Il est rapidement devenu a même eu. Les utilisateurs ont publié des captures d’écran de Chatgpt applaudir toutes sortes de décisions et d’idées problématiques et dangereuses.
Dans un article sur X dimanche dernier, le PDG Sam Altman a reconnu le problème et a déclaré qu’Openai travaillerait sur les correctifs «dès que possible». Nous tuons, Altman a annoncé que la mise à jour du GPT-4O était en cours de reculature et qu’Openai travaillait sur «Fixed supplémentaire» à la personnalité du modèle.
La société a publié mardi un post-mortem, et dans un article de blog vendredi, OpenAI a étendu des ajustements spécifiques qu’il prévoit de faire pour son processus de déploiement de modèle.
OpenAI dit qu’il prévoit d’introduire une «phase alpha» opt-in pour certains modèles qui WOW permettent à certains utilisateurs de Chatgpt de tester les modèles et de donner des commentaires avant le lancement. La société affirme également qu’elle comprendra des explications des «limites connues» pour les futures mises à jour incrémentielles des modèles dans Chatgpt, et ajuster son processus d’examen de la sécurité pour considérer formellement les «problèmes de comportement du modèle» comme la personnalité, la tromperie, la liababilité et les halluies (c’est-à-dire lorsqu’un modèle fait des préoccupations de «blocage de lancement».
« À l’avenir, nous communiquerons de manière proactive sur les mises à jour que nous faisons les modèles dans Chatgpt, Whiteher » subtil « ou non », a écrit Openai dans le billet de blog. « Même si ces problèmes ne sont pas parfaitement quantifiables aujourd’hui, nous nous engageons à bloquer le lancement en fonction des mesures proxy ou des signaux qualitatifs, même lorsque des métriques comme A / B Testing semblent bien. »
Les correctifs promis viennent alors que de plus en plus de personnes se tournent vers le chatppt pour obtenir des conseils. Selon un refced survient par le financement juridique de la poursuite Financial Express, 60% des adultes américains ont utilisé le chatppt pour demander des conseils ou des informations. La dépendance croissante de la chatte – et de l’énorme base d’utilisateurs de la plate-forme – augmente les enjeux lorsque des problèmes tels que la sycophie extrême émergent, sans parler des hallucinations et d’autres lacunes techniques.
Événement TechCrunch
Berkeley, que
|
5 juin
Réserver maintenant
En tant qu’étape atténuante, plus tôt cette semaine, Openai a déclaré que cela expérimenterait des moyens de permettre aux utilisateurs de donner des «commentaires en temps réel» pour «influencer directement leurs interactions» avec Chatgpt. La société a également déclaré qu’elle affinerait les techniques pour éloigner les modèles de la sycophance, permettra à des potentiels de choisir parmi plusieurs personnalités de modèles dans le chatgpt, de créer des garde-corps de sécurité supplémentaires et d’étendre les évaluations pour aider à identifier les problèmes au-delà de la sycophance.
« L’une des plus grandes leçons est de reconnaître pleinement comment les gens ont commencé à utiliser Chatgpt pour des conseils profondément personnels – quelque chose que nous n’avons pas vu il y a même un an », a poursuivi Openai dans son article de blog. « À l’époque, ce n’était pas un objectif principal, mais l’IA et la société ont co-évolué, il est devenu clair que nous devons traiter ce cas d’utilisation avec grand soin. Cela va maintenant être une partie plus significative de notre travail de sécurité. »