Close Menu
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
What's Hot

Didero décroche 30 millions de dollars pour mettre les achats de fabrication sur pilote automatique « agentique »

février 12, 2026

Le prêteur de crypto-monnaie BlockFills suspend les retraits de ses clients, dernier coup porté à l’espace blockchain

février 12, 2026

Anthropic lève 30 milliards de dollars supplémentaires en série G, avec une nouvelle valeur de 380 milliards de dollars

février 12, 2026
Facebook X (Twitter) Instagram
Facebook X (Twitter) Instagram
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
221 France221 France
Home » Les hypothèses erronées derrière le post viral X de Matt Schumer sur l’impact imminent de l’IA
Business

Les hypothèses erronées derrière le post viral X de Matt Schumer sur l’impact imminent de l’IA

JohnBy Johnfévrier 12, 2026Aucun commentaire12 Mins Read
Facebook Twitter Pinterest Reddit Telegram LinkedIn Tumblr VKontakte WhatsApp Email
Share
Facebook Twitter Reddit Pinterest Email



L’influenceur de l’IA Matt Schumer a écrit un blog viral sur X sur le potentiel de l’IA à perturber et éventuellement automatiser presque tout le travail de connaissance, qui a accumulé plus de 55 millions de vues au cours des dernières 24 heures.

L’essai de 5 000 mots de Schumer a certainement touché une corde sensible. Écrit sur un ton haletant, ce blog est conçu pour avertir les amis et la famille de la façon dont leur travail est sur le point d’être fondamentalement bouleversé. (Le magazine Fortune a également publié une version adaptée du message de Schumer dans un article explicatif.)

« Le 5 février, deux grands laboratoires d’IA ont publié de nouveaux modèles le même jour : le Codex GPT-5.3 d’OpenAI et l’Opus 4.6 d’Anthropic », a-t-il écrit. « Puis quelque chose a cliqué. Ce n’était pas comme un interrupteur… c’était plutôt le moment où vous avez réalisé que l’eau montait autour de vous et atteignait maintenant votre poitrine. »

Schumer affirme que les programmeurs sont le canari dans la mine de charbon pour toutes les autres professions. « Ce que les travailleurs de la technologie ont vécu au cours de l’année écoulée, voir l’IA passer du statut d’outil utile à celui de pouvoir faire leur travail mieux que vous, est quelque chose que tout le monde est sur le point de vivre », déplore-t-il. « Juridique, financier, médical, comptable, conseil, rédaction, conception, analyse, service client. Pas avant 10 ans. Les personnes qui construisent ces systèmes parlent de 1 à 5 ans, mais certains disent moins. Et compte tenu de ce que j’ai vu ces derniers mois, je pense que c’est probablement « moins ». »

Mais malgré sa nature virale, l’affirmation de Schumer selon laquelle ce qui s’est passé dans le codage est un signe avant-coureur de ce qui se passera dans d’autres domaines et, surtout, que cela se produira d’ici quelques années seulement, me semble fausse. Et j’écris ceci en tant que personne ayant écrit un livre (Mastering AI: A Survival Guide to Our Superpowered Future) qui prédisait que l’IA révolutionnerait le travail du savoir d’ici 2029, et j’y crois toujours. Je ne crois pas que l’automatisation complète des processus que nous commençons à voir dans le codage se répandra dans d’autres domaines aussi rapidement que le prétend Schumer. Même s’il est peut-être sur la bonne voie, le ton sinistre de son message me semble alarmiste et largement basé sur de fausses hypothèses.

Tous les travaux liés au savoir ne ressemblent pas au développement de logiciels

Schumer a déclaré que le code raison est le domaine dans lequel les capacités des agents autonomes ont eu le plus grand impact jusqu’à présent, car les sociétés d’IA y ont prêté beaucoup d’attention. Schumer a déclaré que ces entreprises modèles de pointe estiment que le développement de logiciels autonomes est la clé de leur activité et que leurs modèles d’IA les aideront à construire la prochaine génération de modèles d’IA. À cet égard, les paris des sociétés d’IA semblent payants. Le rythme auquel les entreprises d’IA produisent de meilleurs modèles s’est considérablement accéléré au cours de l’année écoulée. De plus, OpenAI et Anthropic affirment que la majorité du code derrière leurs derniers modèles d’IA est écrit par l’IA elle-même.

Schumer a déclaré que même si le codage est un indicateur avancé, les mêmes gains de performances observés dans le codage apparaissent dans d’autres domaines, parfois environ un an après les améliorations du codage. (Bien que Schumer ne propose pas d’explication convaincante sur la raison pour laquelle ce décalage existe, il laisse entendre que c’est simplement parce que les sociétés de modélisation d’IA optimisent d’abord leur codage et finissent par améliorer leurs modèles dans d’autres domaines.)

Mais ce que Schumer ne mentionne pas, c’est une autre raison pour laquelle l’automatisation du développement logiciel évolue plus rapidement que d’autres domaines. Le codage comporte des indicateurs quantitatifs de qualité qui n’existent pas dans d’autres domaines. En programmation, si votre code est vraiment mauvais, il ne sera pas compilé du tout. Un mauvais code peut également échouer à divers tests unitaires qu’un agent de codage IA peut exécuter. (Shumer ne mentionne pas que les agents de codage actuels mentent parfois sur la réalisation de tests unitaires, ce qui est l’une des nombreuses raisons pour lesquelles le développement automatisé de logiciels n’est pas infaillible.)

De nombreux développeurs pensent que le code créé par l’IA est souvent suffisamment bon pour réussir ces tests de base, mais il n’est toujours pas si bon. Ils disent que c’est inefficace, peu sophistiqué et, surtout, peu sûr, exposant les organisations qui utilisent l’IA à des risques de cybersécurité. Mais dans le domaine du codage, il existe encore des moyens de créer des agents d’IA autonomes qui résolvent certains de ces problèmes. Ce modèle peut lancer des sous-agents qui vérifient le code écrit pour détecter les vulnérabilités de cybersécurité ou critiquent l’efficacité du code. Étant donné que le code logiciel peut être testé dans un environnement virtuel, il existe de nombreuses façons d’automatiser le processus d’apprentissage par renforcement. Dans l’apprentissage par renforcement, les agents apprennent par l’expérience pour maximiser les récompenses, telles que les points de jeu. Les entreprises d’IA utilisent cet apprentissage pour façonner le comportement des modèles d’IA après la formation initiale. Cela signifie que les améliorations apportées aux agents de codage peuvent être effectuées à grande échelle et de manière automatisée.

Il est beaucoup plus difficile d’évaluer la qualité de nombreux autres domaines du savoir. Il n’existe pas de compilateurs de lois, pas de tests unitaires pour les plans de santé, pas de mesures définitives pour déterminer la qualité d’une campagne marketing avant de la tester auprès des consommateurs. Dans d’autres domaines, il est beaucoup plus difficile de collecter suffisamment de données auprès d’experts sur ce à quoi ressemble le « bien ». Les entreprises d’IA sont conscientes que la collecte de ce type de données est problématique. C’est pourquoi ils versent désormais des millions de dollars à des entreprises comme Mercor, qui dépensent beaucoup d’argent pour embaucher des comptables, des experts financiers, des avocats et des médecins pour fournir des commentaires sur les résultats de l’IA afin que les entreprises d’IA puissent mieux former leurs modèles.

Il est vrai qu’il existe des benchmarks montrant que les modèles d’IA modernes progressent rapidement dans des tâches spécialisées autres que le codage. L’un des meilleurs d’entre eux est le benchmark GDPVal d’OpenAI. Cela montre que les modèles Frontier peuvent atteindre des performances comparables à celles des experts humains dans une variété de tâches professionnelles, du travail juridique complexe à la fabrication en passant par les soins de santé. Jusqu’à présent, le modèle publié par OpenAI et Anthropic la semaine dernière n’a donné aucun résultat. Cependant, dans ses prédécesseurs, Claude Opus 4.5 et GPT-5.2, le modèle a atteint des performances comparables à celles des experts humains dans une variété de tâches et a surpassé les experts humains dans de nombreux domaines.

Alors peut-être que cela suggère que Schumer a raison ? Eh bien, pas si vite. J’ai découvert que dans de nombreuses professions, ce à quoi ressemble le « bien » est très subjectif. Les experts humains ne sont d’accord entre eux sur leurs évaluations des résultats de l’IA que dans environ 71 % du temps. Le système de notation automatisé qu’OpenAI utilise pour GDPVal est encore plus variable, ne correspondant aux notes que 66 % du temps. Par conséquent, les grands chiffres sur l’efficacité de l’IA dans les tâches professionnelles peuvent être très inexacts.

Les entreprises ont besoin de confiance, de gouvernance et d’auditabilité

Cette différence est l’un des éléments qui empêchent les entreprises de déployer des flux de travail entièrement automatisés. Non seulement la sortie du modèle d’IA lui-même peut être erronée ; Autrement dit, comme le suggère le benchmark GDPVal, l’équivalent des tests unitaires automatisés dans de nombreuses situations professionnelles peut produire des résultats incorrects 1 fois sur 3. La plupart des entreprises ne peuvent pas tolérer la possibilité que, dans un cas sur trois, elles expédient un travail de mauvaise qualité. Les risques sont trop grands. Dans certains cas, le risque peut simplement être une atteinte à la réputation. Dans certains cas, la perte de revenus peut être immédiate. Cependant, dans de nombreux emplois professionnels, les conséquences d’une mauvaise décision peuvent être encore plus graves. Cela peut entraîner des sanctions professionnelles, des poursuites judiciaires, la perte de licences, la perte de couverture d’assurance et même un risque de préjudice physique ou de décès pour un grand nombre de personnes.

De plus, il est problématique de toujours impliquer des humains dans l’examen des résultats automatisés. Les modèles d’IA d’aujourd’hui sont véritablement améliorés. Les hallucinations sont moins fréquentes. Mais cela ne fait qu’aggraver le problème. Moins l’IA génère des erreurs, plus les évaluateurs humains seront satisfaits. Les erreurs d’IA sont plus difficiles à repérer. L’IA est efficace pour présenter des résultats qui sont faux ou dont la forme est parfaite mais manquent de substance. Cela évite certains des critères de substitution que les humains utilisent pour ajuster leur niveau de vigilance. Les modèles d’IA échouent souvent de différentes manières que les humains échouent dans les mêmes tâches, ce qui rend les erreurs qu’ils génèrent encore plus difficiles à éviter.

Pour toutes ces raisons, jusqu’à ce que l’équivalent des tests unitaires automatisés dans le développement de logiciels soit développé pour des domaines plus spécialisés, la mise en œuvre de flux de travail automatisés d’IA dans de nombreux contextes de travail du savoir sera trop risquée pour la plupart des entreprises. L’IA continuera souvent à être un assistant ou un copilote pour les travailleurs du savoir, plutôt que d’automatiser entièrement leur travail.

Il existe également d’autres raisons pour lesquelles le type d’automatisation observé par les développeurs de logiciels d’automatisation est peu susceptible de se produire dans d’autres catégories de travaux axés sur le savoir. Les entreprises ne peuvent souvent pas fournir aux agents d’IA un accès aux types d’outils et de systèmes de données nécessaires à l’exécution de flux de travail automatisés. Il convient de noter que jusqu’à présent, les partisans les plus enthousiastes de l’automatisation de l’IA sont des développeurs qui travaillent seuls ou pour des startups natives de l’IA. Ces programmeurs de logiciels ne sont souvent pas accablés par des systèmes existants ou des dettes techniques, et n’ont souvent pas beaucoup de systèmes de gouvernance ou de conformité à gérer.

Les grandes entreprises manquent souvent de moyens pour relier les sources de données et les outils logiciels. Les préoccupations concernant les risques de sécurité et de gouvernance peuvent également signifier que les grandes entreprises, en particulier dans les secteurs réglementés tels que la banque, la finance, le droit et la santé, hésitent à automatiser sans une assurance absolue que les résultats sont fiables et qu’il existe des processus pour surveiller, gérer et auditer les résultats. Les systèmes pour ce faire sont primitifs pour le moment. Ne vous attendez pas à ce que les entreprises automatisent entièrement la génération de produits critiques ou réglementés tant qu’elles ne sont pas devenues plus matures et plus robustes.

Les critiques disent que Schumer n’est pas honnête sur les échecs du LLM

Je ne suis pas le seul à trouver l’analyse de Schumer erronée. Gary Marcus, professeur émérite de sciences cognitives à l’Université de New York et devenu l’un des principaux sceptiques actuels à l’égard des modèles de langage à grande échelle, m’a dit que le message de Schumer sur X était un « battage publicitaire militarisé ». Et il a souligné que même la discussion de Schumer sur le développement automatisé de logiciels est problématique.

« Il ne présente aucune donnée réelle pour étayer son affirmation selon laquelle les systèmes de codage modernes peuvent créer des applications complexes entières sans introduire d’erreurs », a déclaré Marcus.

Il souligne que Schumer dénature le célèbre benchmark de l’agence de notation de l’IA METR, qui tente de mesurer la capacité de codage autonome des modèles d’IA, et suggère que la capacité de l’IA double tous les sept mois. Marcus souligne que Shumer oublie de mentionner que le benchmark a deux seuils de précision : 50 % et 80 %. Mais la plupart des entreprises ne sont pas intéressées par un système qui échoue la moitié du temps ou une tentative sur cinq.

« Aucun système d’IA ne peut effectuer de manière fiable toutes les tâches de cinq heures qu’un humain peut effectuer sans erreur, ou même presque, mais vous ne le sauriez pas si vous lisiez le blog de Schumer, qui ignore en grande partie les hallucinations et les erreurs minutieuses qui sont courantes dans l’expérience quotidienne », dit Marcus.

Il a également noté que Schumer n’a pas cité de recherches récentes du California Institute of Technology et de l’Université de Stanford qui ont documenté un large éventail d’erreurs d’inférence dans les modèles d’IA avancés. Schumer a également souligné qu’il avait déjà été surpris en train de faire des déclarations exagérées sur les capacités des modèles d’IA qu’il avait formés. « Il aime vendre gros, mais cela ne veut pas dire que nous devons le prendre au sérieux », a déclaré Marcus.

D’autres critiques du blog de Schumer affirment que son analyse économique est anhistorique. Toutes les autres révolutions technologiques ont créé plus d’emplois à long terme qu’elles n’en ont supprimé. Connor Boyack, directeur du Libertas Institute, un groupe de réflexion politique de l’Utah, a écrit un article de blog complet pour réfuter cette affirmation.

En d’autres termes, l’IA pourrait être en passe de transformer le travail. Mais le type d’automatisation complète des tâches que certains développeurs de logiciels commencent à observer est-il possible pour certaines tâches ? Pour la plupart des travailleurs du savoir, en particulier ceux intégrés dans les grandes organisations, cela prendra beaucoup plus de temps que ne le suggère Schumer.



Source link

Share. Facebook Twitter Pinterest LinkedIn Reddit Email
Previous ArticleDe plus en plus d’investisseurs américains poursuivent le gouvernement sud-coréen pour gestion de la violation de données de Coupang
Next Article En fait, le BLS affirme que les licenciements et les taux de chômage sont assez faibles.
John
  • Website

Related Posts

Le prêteur de crypto-monnaie BlockFills suspend les retraits de ses clients, dernier coup porté à l’espace blockchain

février 12, 2026

Pourquoi les attaques d’IA contre les logiciels ébranlent de nombreux secteurs

février 12, 2026

En fait, le BLS affirme que les licenciements et les taux de chômage sont assez faibles.

février 12, 2026

Les propriétaires de yachts milliardaires de Floride se disputent l’espace d’amarrage

février 12, 2026
Add A Comment
Leave A Reply Cancel Reply

Top Posts

Les investissements britanniques dans la fintech stagneront en 2025

février 12, 2026

Nium nomme un nouveau responsable de la technologie, du marketing et des risques

février 11, 2026

Des experts se réunissent au Kenya pour renforcer les solutions fintech pour le commerce transfrontalier en Afrique

février 11, 2026

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

Bienvenue sur 221 France, votre source d’informations de qualité sur les domaines de la technologie, des affaires, du lifestyle et des animaux de compagnie. Nous sommes passionnés par la création de contenus qui enrichissent votre quotidien et vous aident à naviguer dans un monde en constante évolution.

Facebook X (Twitter) Instagram Pinterest YouTube
Top Insights

Didero décroche 30 millions de dollars pour mettre les achats de fabrication sur pilote automatique « agentique »

février 12, 2026

Le prêteur de crypto-monnaie BlockFills suspend les retraits de ses clients, dernier coup porté à l’espace blockchain

février 12, 2026

Anthropic lève 30 milliards de dollars supplémentaires en série G, avec une nouvelle valeur de 380 milliards de dollars

février 12, 2026
Get Informed

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

© 2026 221france. Designed by 221france.
  • Home
  • About us
  • Advertise us
  • Contact us
  • DMCA
  • Privacy policy
  • Terms & Condition

Type above and press Enter to search. Press Esc to cancel.