Mise à jour de 14h40 PT: heures après la sortie de GPT-4.5, OpenAI a supprimé une ligne du livre blanc du modèle AI qui disait que «GPT-4.5 n’est pas un modèle d’IA frontalier». Le nouveau livre blanc de GPT-4.5 ne comprend pas cette ligne. Vous pouvez trouver un lien vers l’ancien livre blanc ici. L’original suit l’article.
Openai a annoncé jeudi qu’il lance GPT-4.5, le modèle de modèle AI très attendu, nommé Orion. GPT-4.5 est le grand modèle d’Openai à ce jour, Traind utilisant une puissance et des données plus comportantes que n’importe quel réwake précédent de l’entreprise.
Malgré sa taille, Openai note en blanc qu’il ne considère pas GPT-4.5 comme un modèle de frontière.
Les abonnés à Chatgpt Pro, le plan de 200 $ par mois d’Openai, auront accès à GPT-4.5 dans Chatgpt à partir de jeudi dans le cadre d’un aperçu de la recherche. Les développeurs sur les tiers payants de l’API d’Openai pourront également utiliser GPT-4.5 à partir d’aujourd’hui. En ce qui concerne les autres utilisateurs de Chatgpt, les clients se sont inscrits à ChatGpt Plus et l’équipe ChatGPT devrait obtenir le modèle la semaine prochaine, a déclaré un porte-parole d’OpenAI à TechCrunch.
L’industrie a organisé sa pause collective pour Oron, que certains considèrent comme un clocher pour la viabilité des approches traditionnelles de formation d’IA. Le GPT-4.5 a été développé en utilisant la même technique clé augmentant dramatiquement la puissance de calcul et les données pendant une phase de «pré-taleling» appelée apprentissage non supervisé – que OpenAI a utilisé pour développer GPT-4, GPT-3, GPT-2 et GPT-1.
Dans chaque génération de GPT avant GPT-4.5, la mise à l’échelle a conduit à des sauts massifs des performances entre les domaines, y compris les mathématiques, l’écriture et le codage. En effet, Openai dit que la taille accrue de GPT-4.5 lui a donné «une connaissance mondiale plus profonde» et «une intelligence émotionnelle plus élevée». Cependant, il y a des signes que les gains de la mise à l’échelle des données et de l’informatique commencent à se stabiliser. Sur plusieurs repères d’IA, le GPT-4.5 est en deçà de nouveaux modèles de «raisonnement» de l’IA de la société d’IA chinois Deepseek, Anthropic et Openai lui-même.
Le GPT-4.5 est également très dépensif à gérer, Openai a admis si cher que la société affirme qu’elle évalue à long terme pour continuer à servir GPT-4.5 dans son API à long terme. Pour accéder à l’API de GPT-4.5, OpenAI facture aux développeurs 75 $ pour chaque million de jetons d’entrée (environ 750 000 mots) et 150 $ pour chaque million de jetons de sortie. Comparez cela à GPT-4O, qui ne coûte que 2,50 $ par million de jetons d’entrée et 10 $ par million de jetons de production.
« Nous partageons GPT – 4.5 comme aperçu de recherche pour mieux comprendre ses forces et ses limites », a déclaré Openai dans un article de blog partagé avec TechCrunch. « Nous explorons toujours ce dont il est capable et sommes impatients de voir comment les gens l’utilisent d’une manière que nous ne nous attendions pas. »
Performance mixte
Openai souligne que le GPT-4.5 n’est pas censé remplacer le GPT-4O, le modèle de cheval de travail de la société qui alimente la majeure partie de son API et CHATGPT. Alors que GPT-4.5 prend en charge des fonctionnalités telles que les téléchargements de fichiers et d’images et l’outil Canvas de ChatGPT, il manque actuellement de capacité comme la prise en charge du mode bidirectionnel réaliste de ChatGPT.
Dans la colonne plus, GPT-4.5 est plus tâtonnement que GPT-4O et de nombreux autres modèles en plus.
Sur la référence SimpleQA d’OpenAI, qui teste les modèles AI sur les questions de facturation simples, GPT-4.5 surpasse les modèles de raisonnement GPT-4O et OpenAI, O1 et O3-MinI, en termes de précision. Selon OpenAI, GPT-4.5 hallucine moins fréquemment que la plupart des modèles, ce qui signifie en théorie qu’il devrait être moins susceptible de rattraper des trucs.
OpenAI n’a pas énuméré l’un de ses modèles de raisonnement d’IA les plus performants, Recherche en profondeur, sur SimpleQA. Un Spokesson Openai a déclaré à TechCranch qu’il n’a pas publié publiquement la performance de Deep Research sur cette référence et a affirmé que ce n’était pas une comparaison de liaison. Notamment, le modèle de recherche en profondeur de la startup de l’IA, qui se produit de la même manière sur d’autres références pour la recherche profonde d’Openai, surpasse le GPT-4.5 sur ce test de l’accident de facturation.

Nous avons un sous-ensemble de problèmes de codage, la référence Sweet Virthed, GPT-4.5 correspond à peu près aux performances de GPT-4O et O3-MINI mais Fals Shorts Deep Research Deep et Anthropic’s Claude 3.7 Sonnet. Lors d’un autre test de codage, la référence Swe-Lancer d’Openai, qui mesure la capacité d’un modèle d’IA à développer les fonctionnalités logicielles complètes, GPT-4.5 surpasse GPT-4O et O3-MINI, mais ne manque pas de recherche approfondie.


GPT-4.5 n’atteint pas tout à fait les performances des principaux modèles de raisonnement en IA tels que O3-MinI, R1 de Deepseek et Claude 3.7 Sonnet (techniquement un modèle hybride) sur des références académiques difficiles telles que AIM et GPQA. Mais le GPT-4.5 ou les meilleurs modèles non liés à la saison sur ces mêmes tests, suggérant que le modèle fonctionne bien sur les problèmes liés aux mathématiques et aux sciences.
OpenAI affirme également que le GPT-4.5 est qualitatif supérieur à d’autres modèles dans des domaines qui comparent bien bien, comme la capacité de comprendre l’intte humaine. GPT-4.5 répond dans un ton plus chaud et plus naturel, Openai Say, et bien des performances sur des tâches créatives telles que les essaies et le design.
Dans un test d’information, OpenAI invite GPT-4.5 et deux autres modèles, GPT-4O et O3-MINI, pour créer une licorne dans SVG, un format d’affichage de graphiques basés sur la forme mathématique et le code. GPT-4.5 était le seul modèle d’IA à créer quoi que ce soit ressemblant à une licorne.

Dans un autre test, Openai a demandé à GPT-4.5 et les deux autres modèles pour répondre à l’invite: «Je suis en train de passer une période difficile après avoir échoué à un test.» GPT-4O et O3-Mini ont donné des informations utiles, mais la réponse de GPT-4.5 a été la plus appropriée socialement.
« (W) E J’ai hâte d’obtenir une image plus complète des capacités de GPT-4.5 grâce à cette version », a écrit Openai dans le billet de blog, « Parce que nous reconnaissons que les références académiques reflètent toujours une utilité réelle. »

Les lois sur la mise à l’échelle contestées
OpenAI affirme que GPT – 4.5 est «à la frontière de ce qui est possible dans un apprentissage non superposé». Cela peut être vrai, mais les limites du modèle semblent également confirmer les spéculations des experts que les «lois sur l’échelle» pré-circultes ne continueront pas à tenir.
Le co-fondateur et scientifique en chef de l’OpenAI, Ilya Sutskever, a déclaré en décembre que «nous avons obtenu des données de pointe» et que «le pré-tournage comme nous le savons finira sans aucun doute». Ses commentaires ont fait écho aux préoccupations que les investisseurs, les fondateurs et les chercheurs de l’IA ont partagé avec TechCrunch pour une fonctionnalité en novembre.
En responsable des obstacles avant la formation, les Openai-Has, notamment les modèles de raisonnement, qui prennent plus de temps que les modèles non-renvois pour effectuer des tâches mais Tre pour être plus composé. En augmentant le temps et la puissance de calcul que les modèles de raisonnement en IA utilisent pour «réfléchir» par problème, les laboratoires AI sont convaincus qu’ils peuvent inscrire les capacités des modèles.
OpenAI prévoit éventuellement de comparer sa série de modèles GPT avec sa série de raisons «O», à commencer par GPT-5 plus tard cette année. Le GPT-4.5, qui serait incroyablement coûteux à former, retardé à plusieurs reprises et n’a pas réussi à répondre aux attentes internes, ne peut pas prendre la couronne de référence de l’IA en soi. Mais Openai le voit probablement comme une pierre de trempage vers quelque chose de bien plus puissant.

