
Peter Steinberger, créateur du populaire programme d’intelligence artificielle open source OpenClaw, rejoindra OpenAI Inc. pour aider les développeurs de ChatGPT à renforcer leur offre de produits.
« OpenClaw restera au sein de la Fondation en tant que projet open source qu’OpenAI continuera à soutenir », a écrit le PDG d’OpenAI, Sam Altman, dans un article publié dimanche, ajoutant que Steinberger « rejoindra OpenAI pour propulser la prochaine génération d’agents personnels ».
Steinberger a écrit samedi dans un article séparé sur son site Web qu’il rejoignait OpenAI pour « faire partie et continuer à construire sur la frontière de la recherche et du développement en IA ».
« Il a toujours été important pour moi qu’OpenClaw reste open source et libre de prospérer », a écrit Steinberger. « En fin de compte, j’ai senti qu’OpenAI était l’endroit idéal pour continuer à faire progresser ma vision et étendre sa portée. »
Depuis sa sortie en novembre, OpenClaw (anciennement connu sous le nom de Clawdbot et Moltbot) est devenu culte pour sa capacité à fonctionner de manière autonome et à effectuer des tâches telles que vider les boîtes de réception des utilisateurs, effectuer des réservations de restaurant et enregistrer des billets d’avion. Les utilisateurs peuvent également connecter l’outil à des applications de messagerie telles que WhatsApp et Slack et diriger les agents via ces plateformes.
« Ma prochaine mission est de créer un agent que même les mères peuvent utiliser », a écrit Steinberger. « Cela nécessitera des changements plus larges, une réflexion accrue sur la manière de le faire en toute sécurité et un accès aux derniers modèles et recherches. »
Cette décision intervient dans un contexte de problèmes de sécurité croissants autour d’OpenClaw après que des utilisateurs ont signalé que des agents ayant accès à iMessage les avaient spammés avec des centaines de messages de « triche ». Les experts en cybersécurité ont averti que l’outil est dangereux car il peut accéder à des données personnelles, communiquer avec le monde extérieur et vous exposer à du contenu non fiable. Un chercheur appelle cela la « triple menace fatale » de l’IA.

