
Le codage traditionnel est-il mort ? C’est la question que se posent de nombreux développeurs cette semaine suite à l’annonce de nouveaux modèles de codage puissants d’OpenAI et d’Anthropic.
La semaine dernière, OpenAI et Anthropic ont supprimé leurs modèles de codage respectifs : GPT-5.3-Codex et Claude Opus 4.6. Les deux représentent des avancées significatives dans les capacités de codage de l’IA. Alors que GPT-5.3-Codex a obtenu de bien meilleurs résultats sur les tests de codage que les modèles précédents, Opus 4.6 a introduit la possibilité pour les utilisateurs de déployer des équipes d’agents d’IA autonomes capables de travailler simultanément sur différents aspects de projets complexes. Les deux modèles vous permettent d’écrire, de tester et de déboguer du code avec une intervention humaine minimale, et même d’effectuer vous-même des itérations pour améliorer les fonctionnalités avant de présenter les résultats aux développeurs.
Ces versions, en particulier GPT-5.3-Codex, ont provoqué une sorte de crise existentielle en ligne parmi les ingénieurs logiciels. La pièce maîtresse était un essai viral écrit par Matt Schumer, PDG d’AutresideAI. Shumer a déclaré que « quelque chose a cliqué » après la publication du modèle, expliquant que le modèle d’IA gère désormais l’ensemble du cycle de développement de manière autonome. Cela signifie écrire des dizaines de milliers de lignes de code, ouvrir l’application, tester les fonctionnalités, répéter jusqu’à satisfaction, et le développeur décrit simplement le résultat souhaité et s’en va. Il a suggéré que cette avancée signifie que l’IA pourrait détruire des emplois encore plus gravement que la pandémie de COVID-19.
Cet essai a suscité diverses réactions. Certains leaders technologiques, dont le co-fondateur de Reddit, Alexis Ohanian, étaient d’accord, mais d’autres, dont le professeur Gary Marcus de l’Université de New York, l’ont critiqué comme étant un « battage publicitaire militarisé ». (Marcus a noté que Schumer n’a fourni aucune donnée pour étayer l’affirmation selon laquelle l’IA peut créer des applications complexes sans erreurs.) Jeremy Kahn du magazine Fortune a également fait valoir que même si ce sont les caractéristiques uniques du codage, telles que les tests automatisés, qui facilitent une automatisation complète, l’automatisation dans d’autres domaines de travail du savoir peut être plus insaisissable.
Les ingénieurs logiciels, premiers à adopter
Pour de nombreux ingénieurs, certains avertissements de Schumer reflètent simplement leur réalité actuelle. De nombreux ingénieurs déclarent qu’ils ont complètement arrêté de coder et qu’ils s’appuient plutôt sur l’IA pour suivre les instructions et écrire du code.
Bien que les nouvelles versions représentent des améliorations significatives, les développeurs ont également déclaré que le secteur avait connu une lente transformation au cours de l’année écoulée, les modèles étant capables de gérer de manière autonome des tâches de plus en plus complexes. Les développeurs des grandes entreprises technologiques ont largement arrêté d’écrire du code ligne par ligne, mais cela ne signifie pas qu’ils ont arrêté de créer des logiciels. Les développeurs sont devenus des directeurs de systèmes d’IA qui apportent leur contribution en leur nom. Cette compétence a évolué de l’écriture de code à la conception de solutions et au pilotage d’outils d’IA. Certains soutiennent que le nouveau modèle « fait éclater la bulle » autour du codage de l’IA principalement en sensibilisant les personnes extérieures au codage aux tendances que les ingénieurs connaissent depuis des mois.
Lors d’une conférence téléphonique sur les résultats cette semaine, le co-PDG de Spotify, Gustav Söderström, a déclaré que les talentueux développeurs de la société « n’avaient pas écrit une seule ligne de code depuis décembre ». Les systèmes internes du géant du streaming utilisent Claude Code pour le déploiement à distance, permettant aux ingénieurs de diriger les corrections de bugs et les ajouts de fonctionnalités à l’IA via Slack sur leurs téléphones pendant leurs déplacements, puis de fusionner le travail terminé en production avant d’arriver au bureau. Söderström a déclaré que Spotify avait publié plus de 50 nouvelles fonctionnalités en 2025 en utilisant ces flux de travail.
Même au sein d’Anthropic, les ingénieurs s’appuient largement sur des outils propriétaires pour écrire du nouveau code. Boris Cherny, responsable de Claude Code, a déclaré plus tôt ce mois-ci qu’il n’avait écrit aucun code depuis plus de deux mois. Anthropic avait précédemment déclaré à Fortune que 70 à 90 % de son code était généré par l’IA.
Le modèle lui-même a également atteint des étapes récursives, contribuant considérablement à la construction d’itérations plus avancées du modèle lui-même. OpenAI a déclaré que GPT-5.3-Codex est « le premier modèle qu’il a contribué à créer lui-même » et constitue un changement majeur dans le fonctionnement du développement de l’IA. De même, Cherny d’Anthropic a déclaré que son équipe avait construit Claude Cowork, une version non technique de Claude Code pour la gestion de fichiers, en une semaine et demie environ, en utilisant principalement Claude Code lui-même. Quant à Claude Code, Cherny a déclaré qu’environ 90 % du code de leur entreprise est actuellement écrit par Claude Code.
Malgré l’augmentation de la productivité, certains développeurs préviennent que les nouveaux outils peuvent conduire à l’épuisement professionnel. L’ingénieur vétéran Steve Jaegge a déclaré que les outils d’IA épuisent les développeurs en les surmenant.
Dans un article de blog largement partagé, Yegge a décrit s’être endormi soudainement après de longues sessions de codage et comment ses collègues envisageaient d’installer des modules de sieste dans leurs bureaux. Il affirme que la nature addictive des outils de codage de l’IA conduit les développeurs à assumer des charges de travail insoutenables. « Avec un boost de 10x, si vous donnez du code à un ingénieur Claude et qu’il parle couramment, son flux de travail générera l’équivalent de neuf ingénieurs supplémentaires », écrit-il. Mais « construire quelque chose avec l’IA nécessite beaucoup d’énergie humaine ».

