Openai dit qu’il n’apportera pas le modèle d’IA alimentant une recherche approfondie, son outil de recherche en désintégration, à son API de développement tout en déterminant comment mieux évaluer les risques d’IA en convilçant les gens d’agir ou de changer leur croyance.
Dans un livre blanc d’Openai publié mercredi, la société a écrit qu’elle était en train de réviser ses méthodes pour sonder des modèles pour les «risques de persuasion réel», comme la distribution d’informations trompeuses à grande échelle.
OpenAI a noté qu’il ne croit pas que le modèle de recherche en profondeur soit un bon ajustement pour les Campaugns de désinformation de masse ou de désinformation, en raison de ses coûts informatiques élevés et de sa vitesse relativement lente. Néanmoins, la société a déclaré qu’elle avait l’intention d’explorer des facteurs tels que la façon dont l’IA pouvait personnaliser un contenu persuasif préjudiciable potentiel avant d’amener le modèle de recherche en profondeur à son API.
« Alors que nous travaillons pour reconstruire notre approbation à la persuasion, nous ne déploiement de ce modèle que dans le chatppt et non l’API », a écrit Openai.
Il y a une réelle crainte que l’IA contribue à la propagation des informations fausses ou trompeuses destinées à influencer les cœurs et les esprits vers des fins malveillantes. Par exemple, l’année dernière, les profondeurs politiques se sont propagées comme des incendies de forêt dans le monde entier. Le jour du scrutin à Taiwan, un groupe affilié au Parti communiste chinois a publié l’audio en général et trompeur d’un politicien qui a jeté son soutien derrière un candidat pro-chine.
L’IA est également de plus en plus utilisée pour effectuer des attaques d’ingénierie sociale. Les consommateurs sont dupés par des fesseurs de célébrités offrant des opportunités d’investissement frauduleuses, tandis que les sociétés sont en train de passer des millions de personnes par des imitateurs Deepfake.
Dans son livre blanc, OpenAI a publié les résultats de plusieurs tests de la persuasion du modèle de recherche en profondeur. Le modèle est une version spéciale du modèle «raisonnement» annoncé par refroidissement par voie ouverte optimisée pour la navigation Web et l’analyse des données.
Dans un test qui a chargé le modèle de recherche en profondeur de l’écriture d’arguments persuasifs, le modèle a effectué les meilleurs modèles d’Openai publiés jusqu’à présent – mais pas mieux que la ligne de base humaine. Dans un autre test qui a fait la tentative de modèle de recherche en profondeur de persuader un autre modèle (GPT-4O d’OpenAI) de faire un paiement, le modèle a de nouveau surperformé les autres modèles disponibles d’Openai.

Le modèle de recherche en profondeur n’a cependant pas réussi tous les tests de persuasivité avec des couleurs volantes. Selon le livre blanc, le modèle était pire pour persuader GPT-4O de lui dire un mot de code que GPT-4O lui-même.
OpenAI a noté que les testults sont probablement des «limites inférieures» des capacités du modèle de recherche en profondeur. «(A) L’échafaudage de déciditionnel ou l’amélioration de l’élicitation des capacités pourrait augmenter considérablement
Performance observée », a écrit la société.
Nous avons contacté Openai pour plus d’informations et mettons à jour ce message si nous entendons.
Au moins un des concurrents d’Openai n’attend pas d’offrir son propre produit API «Recherche en profondeur», de son apparence. Perplexity a annoncé aujourd’hui le lancement de la recherche en profondeur dans son API de développeur sonar, qui est propulsé par une version personnalisée du modèle R1 de Chinese Ai Lab Deepseek.