Openai a annoncé mardi le lancement de deux modèles de raisonnement en IA de poids ouvert avec des capacités similaires à sa série O. Les deux sont disponibles gratuitement en téléchargement à partir de la plate-forme de développeur en ligne, Hugging Face, a déclaré la société, décrivant les modèles comme «à la pointe de la technologie» lorsqu’ils sont mesurés à travers plusieurs repères pour comparer des modèles ouverts.
Les modèles sont disponibles en deux tailles: un modèle GPT-OS-15B plus grand et plus compétent qui peut fonctionner sur un GPU NVIDIA unique et un modèle GPT-20B GPT-20B léger qui peut fonctionner sur un ordinateur portable grand public avec 16 Go de mémoire.
Le lancement marque la première vente de modèle de langue « ouvert » de GPT-2, qui a été publié il y a plus de cinq ans.
Dans un briefing, Openai a déclaré que ses modèles ouverts seront capables d’envoyer des requêtes complexes aux modèles d’IA dans le cloud, comme TechCrunch a précédemment reporté. Cela signifie que le modèle ouvert d’IFA Openai n’est pas capable d’une certaine tâche, comme le traitement d’une image, les développeurs peuvent connecter le modèle ouvert à l’un des modèles fermés les plus capables de l’entreprise.
Alors que les modèles d’IA open-open d’ouvre-Openai à ses débuts, la société a généralement favorisé l’approbation propriétaire du développement de source fermée. La stratégie ultérieure a aidé à ouvrir une grande entreprise à vendre un accès à ses modèles d’IA via une API aux entreprises et aux développeurs.
Cependant, le PDG Sam Altman a déclaré en janvier qu’il pensait que OpenAI avait été «du mauvais côté de l’histoire» lorsqu’il s’agit d’ouvrir l’approvisionnement de ses technologies. La société fait aujourd’hui face à une pression croissante des laboratoires de l’IA chinois – notamment Deepseek, Qwen d’Alibaba et Monshot AI – qui ont développé plusieurs des modèles ouverts les plus compétents et les plus populaires au monde. .
En juillet, l’administration Trump a également exhorté les développeurs de l’IA américains à open source davantage de technologies pour promouvoir l’adoption mondiale de l’IA alignée sur les valeurs américaines.
Événement TechCrunch
San Francisco
|
27-29 octobre 2025
Avec la publication de GPT-OS, OpenAI espère cuire la faveur des développeurs et de l’administration Trump, qui ont tous deux vu les laboratoires de l’IA chinois se relever dans l’espace open source.
« Pour en revenir au moment où nous avons commencé en 2015, la mission d’Openai est de garantir une loi qui profite à toute l’humanité », a déclaré Sam Altman, PDG d’Openai, dans un statments partagé avec TechCrunch. «À cette fin, nous sommes ravis que le monde s’appuie sur une pile d’IA ouverte créée aux États-Unis, sur la base de valeurs démocratiques, disponibles gratuitement à tous et pour un large avantage.

Comment les modèles ont fonctionné
Openai a aidé à faire de son modèle ouvert un leader parmi les autres modèles d’IA de poids ouvert, et la société prétend avoir fait exactement cela.
Sur CodeForces (avec des outils), un test de codage compétitif, le score GPT-OS-15B et GPT-OS-20B 2622 et 2516, respectivement, a surpassé le R1 de Deepseek tout en sous-performant O3 et O4-MinI.

Sur le dernier examen de l’humanité, un test difficile de questions provenant de la foule sur une variété de sujets (avec des outils), GPT-OS-150b et GPT-OS-20B score de 19% et 17,3%, respectif. De même, cela sous-performe O3 mais surpasse les principaux modèles ouverts de Deepseek et Qwen.

Remarquement, les modèles ouverts d’Openai hallucinent négatifment plus que les modèles de raisonnement ITST AI, O3 et O4-MinI.
Les hallucinations sont devenues de plus en plus graves dans les derniers modèles de raisonnement d’IA d’OpenAI, et la société a précédemment déclaré qu’elle ne comprenait pas pourquoi. Dans un livre blanc, Openai dit que c’est «attendu, car les modèles plus petits ont moins de connaissances mondiales que les modèles frontaliers plus grands et le TRE pour halluciner davantage».
OpenAI a constaté que GPT-OS-120B et GPT-OS-20B ont halluciné en responsable de 49% et 53% des questions sur PersonQA, la référence interne de la société pour mesurer l’exactitude des connaissances d’un modèle sur les personnes. C’est plus que le triple du taux d’hallucination du modèle O1 d’Openai, qui a obtenu 16%, et supérieur à son modèle O4-Mini, qui a obtenu 36%.
Former les nouveaux modèles
Openai dit que ses modèles ouverts Traind avec le processus Simar à ses modèles propulsaires. La société affirme que chaque modèle ouvert exploite le mélange d’experts (MOE) pour exploiter moins de paramètres pour une question donnée, ce qui le rend plus efficace. Pour GPT-OS-120B, qui a 117 milliards de paramètres au total, OpenAI affirme que le modèle active uniquement 5,1 milliards de paramètres par jeton.
La société affirme également que son modèle ouvert a été formé à l’aide d’un processus post-entraînement à la réinflimination à forte compasse (RL) – un processus post-entraînement pour enseigner les modèles d’IA directement dans les navires simulés en utilisant de grands grappes de GPU NVIDIA. Cela a également été utilisé pour former les modèles O d’Openai, et les modèles ouverts ont un processus de chaîne de pensée similaire dans lequel ils prennent du temps supplémentaire et des ressources de calcul pour travailler via Thersh therswers.
À la suite du processus post-formation, Openai affirme que ses modèles d’IA ouverts excellent à alimenter les agents d’IA et sont capables d’appeler des outils tels que la recherche Web ou l’exécution de code Python Ascature Ascatur Ascatur ASU de son processus de chaîne de pensée. Cependant, Openai affirme que ses modèles ouverts sont uniquement en texte, ce qui signifie qu’ils ne pourront pas traiter ou générer des images et un audio comme les autres modèles de l’entreprise.
OpenAI régisse GPT-OS-120B et GPT-OS-20B sous la licence Apache 2.0, qui est généralement considérée comme l’une des plus permissives. Cette licence permettra aux entreprises de monétiser les modèles ouverts d’Openai sans avoir à payer ou à obtenir l’autorisation de l’entreprise.
Cependant, contrairement aux offres entièrement open source des laboratoires AI comme AI2, OpenAI dit qu’il ne reverra pas les données de formation utilisées pour créer ses modèles ouverts. Cette décision n’est pas surprenante étant donné que plusieurs poursuites actives contre les fournisseurs de modèles d’IA, incluaient OpenAI, ont allégué que ces sociétés Inappropriataly ont formé leurs modèles d’IA sur Copyrightd Works.
OpenAI a retardé la publication de ses modèles ouverts à plusieurs reprises au cours des derniers mois, en partie pour répondre aux problèmes de sécurité. Au-delà des politiques de sécurité typiques de l’entreprise, Openai dit dans un livre blanc qu’elle a également investi où les mauvais acteurs pourraient affiner ses modèles GPT-OS pour être plus utiles dans les cyberattaques ou la création d’armes biologiques ou chimiques.
Après avoir testé des évaluateurs OpenAI et tiers, la société affirme que GPT-OOSS pourrait augmenter légèrement les capacités biologiques. Cependant, il n’a pas constaté que ces modèles ouverts pouvaient atteindre son seuil de «haute capacité» pour le danger dans ces domaines, même après le réglage.
Alors que le modèle d’Openai semble être de pointe parmi les modèles ouverts, les développeurs attendent avec impatience la sortie de Deepseek R2, son prochain modèle de raisonnement AI, ainsi qu’un nouveau modèle ouvert du nouveau laboratoire de superintelligence de Meta.