Faites-nous part des mises à jour gratuites
Inscrivez-vous simplement à la société américaine Myft Digest et il sera livré directement dans votre boîte de réception.
La formation d’un chatbot peut être difficile. Le mois dernier, Openai a fait reculer une mise à jour de Chatgpt parce que sa « personnalité par défaut » était si empathique. (Peut-être que les données de formation de l’entreprise ont été tirées d’une transcription de la réunion du Cabinet du président Donald Trump.)
Alors que les sociétés d’intelligence artificielle voulaient que les chatbots soient plus intuitifs, les demandes d’utilisateurs étaient biaisées pour être trop favorables et malhonnêtes. « Une interaction sycopantique peut être inconfortable, anxieuse et douloureuse. Nous sommes à court et nous travaillons pour bien faire les choses », a déclaré la société dans un article de blog.
La reprogrammation des chatbots sycophantiques n’est peut-être pas le dilemme le plus important à laquelle l’OpenAI est confrontée, mais il se présente avec son plus grand défi. Crée une personnalité fiable dans toute l’entreprise. Cette semaine, Openai a été contraint de faire reculer la dernière mise à jour prévue de la société conçue pour transformer l’entreprise en une entreprise à but lucratif. Au lieu de cela, ils déménageront dans une société de prestations publiques sous la supervision d’un comité à but non lucratif.
Il ne résout pas les tensions structurelles au cœur d’OpenAI. Il ne satisfait pas non plus Elon Musk, l’un des co-fondateurs d’une entreprise qui poursuit une action en justice contre les yeux ouverts parce qu’il a été perdu de son objectif d’origine. L’entreprise accélérera-t-elle son déploiement de produits d’IA pour garder les partisans financiers heureux? Ou poursuivez-vous une approche scientifique plus délibérative pour rester fidèle à vos intentions humanitaires?
OpenAI a été fondée en 2015 en tant que laboratoire de recherche à but non lucratif dédié au développement d’informations générales artificielles au profit de l’humanité. Cependant, la mission de l’entreprise, comme sa définition d’AGI, a été floue depuis.
Le PDG d’OpenAI, Sam Altman, s’est rapidement rendu compte que l’entreprise avait besoin d’une énorme quantité de capital pour payer les talents de recherche et le pouvoir informatique nécessaire pour rester à l’avant-garde de la recherche sur l’IA. À cette fin, OpenAI a créé une filiale à but lucratif en 2019. Il s’agissait d’une évasion réussie pour Chatbot Chatgpt, où les investisseurs étaient prêts à jeter de l’argent et à évaluer OpenAI à 260 milliards de dollars lors de leur dernière collecte de fonds. Avec 500 millions d’utilisateurs chaque semaine, OpenAI est devenu un géant de l’internet des consommateurs « accidentel ».
Altman, qui a été licencié et réemployé par le comité à but non lucratif en 2023, dit qu’il veut construire un « cerveau mondial » qui nécessite désormais des centaines de milliards de dollars de plus. Le seul problème avec ses ambitieux ambitions est qu’Openai n’a pas encore développé un modèle commercial viable, comme le blogueur technologique Ed Zitron crie en mots de plus en plus salés. L’année dernière, la société a dépensé 9 milliards de dollars et perdu 5 milliards de dollars. Cette évaluation financière est-elle basée sur les hallucinations? Il y a une pression croissante des investisseurs à faire pression rapidement et rapidement sur OpenAI et commercialiser la technologie.
De plus, la définition d’AGI continue de se déplacer. Traditionnellement, il a mentionné des points que les machines surpassent les humains sur un large éventail de tâches cognitives. Cependant, dans une récente interview avec Ben Thompson de Stratechery, Altman a admis que le terme était « presque complètement dévalué ». Cependant, il a adopté la définition plus étroite de l’AGI en tant qu’agent de codage autonome capable d’écrire un logiciel comme des humains.
Sur la base de ce score, il semble que les grandes entreprises d’IA pensent qu’elles sont plus proches de l’AGI. Un cadeau se reflète dans ses propres pratiques d’emploi. Selon Zeki Data, les 15 meilleures entreprises américaines d’IA embauchent désespérément les ingénieurs logiciels à un taux pouvant atteindre 3 000 par mois, recrutant un total de 500 000 entre 2011 et 2024.

Un article de recherche récent de Google Deepmind, qui vise à développer AGIS, a mis en évidence quatre risques majeurs de modèles d’IA de plus en plus autonomes. Abus par de mauvais acteurs. Incohérences dans les cas où les systèmes d’IA font des choses qui ne sont pas désignées; erreurs qui causent un préjudice involontaire. Il existe un risque multifactoriel lorsque des interactions imprévisibles entre les systèmes d’IA ont de mauvais résultats. Ce sont tous des défis déchirants avec des risques potentiellement catastrophiques et peuvent nécessiter plusieurs solutions collaboratives. Plus les modèles d’IA plus puissants, plus les développeurs doivent les déployer.
Donc, comment les entreprises de l’IA frontalière sont régies est un problème non seulement pour les comités et les investisseurs d’entreprise, mais pour nous tous. Openai a toujours une impulsion contradictoire et contradictoire à cet égard. La lutte contre la sycophance est la moindre des problèmes à mesure que vous vous rapprochez d’Agi, mais la définit.