Le dernier produit d’Openai promet que quelqu’un peut collecter automatiquement des données, créer des feuilles de calcul, créer des voyages de livres et tourner les glissiers. ChatGpt Agent, un nouvel outil d’agent AI qui permet aux utilisateurs d’effectuer des actions en leur nom, est le premier produit classé par OpenAI, qui a des fonctionnalités « élevées » dans Biorik.
Cela signifie que le modèle peut fournir un soutien significatif aux acteurs «débutants» et leur permettre de créer des menaces biologiques ou chimiques connues. Selon le «cadre de préparation» d’OpenAI, la signification du monde réel signifie que les événements terroristes biologiques ou chimiques par des acteurs non étatiques sont plus probables et plus fréquents.
« Certaines personnes pensent que Biorisk n’est pas réaliste, et le modèle fournit uniquement des informations qui peuvent être trouvées dans les recherches. Ce n’est peut-être pas le cas en 2024, mais ce n’est certainement pas vrai aujourd’hui. Sur la base de nos notes et des notes d’experts, les risques sont très réalistes », a déclaré Boaz Barak, membre du personnel technique d’Openai, dans le Social Media Post.
« Nous ne pouvons pas être sûrs que ce modèle peut produire de graves dommages biologiques pour les débutants, mais je pense qu’il était très irresponsable de libérer ce modèle sans l’atténuation complète que nous avons introduite », a-t-il ajouté.
OpenAI a déclaré que la classification du modèle comme un risque élevé de bio-misuse est une « précaution » et a provoqué une protection supplémentaire pour l’outil.
Keren Gu, chercheuse à la sécurité d’Openai, a déclaré que la société n’avait aucune preuve concluante que le modèle pouvait conduire les débutants à un sens et à produire de graves dommages biologiques, mais qu’il stimulait toujours la protection. Ces gardes de protection incluent des invites qui peuvent aider quelqu’un à créer une arme bio-arme, des systèmes qui signalent les demandes potentiellement dangereuses d’examens professionnels, des règles strictes qui bloquent le contenu dangereux, des réponses plus rapides aux problèmes et un suivi robuste des indications d’une mauvaise utilisation.
L’un des principaux défis pour atténuer la possibilité de Biorik est que la même capacité peut débloquer des percées médicales vitales. C’est l’une des grandes promesses des modèles d’IA avancés.
L’entreprise est de plus en plus préoccupée par la possibilité d’une mauvaise utilisation des modèles dans le développement d’armes biologiques. Dans un article de blog le mois dernier, OpenAI a annoncé qu’il intensifie les tests de sécurité pour réduire le risque que le modèle soit utilisé pour aider à créer des armes biologiques. Le laboratoire AI a averti que sans ces précautions, le modèle pourrait bientôt permettre des «bosses débutantes».
« Contrairement aux menaces nucléaires ou radiologiques, l’obtention du matériel n’est pas un obstacle à la création de menaces biologiques, donc la sécurité dépend fortement de la rareté des connaissances et des compétences en laboratoire », a déclaré Barak. « Sur la base de notre évaluation et des experts externes, les agents de Chatgpt non autorisés peuvent réduire l’écart dans leurs connaissances et fournir des conseils à proximité des experts en la matière. »
agent de chatte
La nouvelle fonctionnalité d’Openai Chatgpt est une tentative d’acquérir l’un des domaines les plus parlés et les plus dangereux du développement de l’IA: les agents.
La nouvelle fonctionnalité fonctionnera avec des fonctionnalités telles que les assistants personnels qui peuvent gérer des tâches comme réserver des réservations de restaurants, faire du shopping en ligne et organiser des listes de demandeurs d’emploi. Contrairement aux versions précédentes, l’outil utilise un ordinateur virtuel pour contrôler activement le navigateur Web, interagir avec les fichiers et naviguer des applications telles que les feuilles de calcul et les decks de diapositives.
La société a intégré l’équipe derrière Deep Research, un outil développé pour mener des recherches en ligne en plusieurs étapes sur des tâches complexes, formant un seul groupe développant de nouveaux outils.
AI Labs est actuellement en concurrence pour construire des agents qui peuvent gérer les tâches numériques complexes indépendamment, à la suite de versions similaires de Google et de l’humanité. Les grandes entreprises technologiques considèrent les agents de l’IA comme des opportunités commerciales. En effet
OpenAI reconnaît qu’une plus grande autonomie présente plus de risques et met l’accent sur le contrôle des utilisateurs pour atténuer ces risques. Par exemple, un agent peut demander l’autorisation avant de prendre des mesures importantes, et l’utilisateur peut faire une pause, les rediriger ou les arrêter à tout moment.