Le méta-PDG Mark Zuckerberg s’est engagé à faire de l’intelligence générale artificielle (AG) – qui est à peu près définie comme une IA qui peut accomplir n’importe quelle tâche qu’un humain peut – ouvertement disponible un jour. Mais dans un nouveau document de politique, Meta suggère qu’il existe certains scénarios dans lesquels il peut ne pas publier un système d’IA très compétent qu’il a développé en interne.
Le document, que Meta appelle son cadre Frontier IA, identifie deux types de systèmes d’IA que la société considère trop risqués pour libérer: les systèmes «à haut risque» et «risque critique».
Alors que la méta les définit, les systèmes «à haut risque» et «à risque critique» sont capables d’aider dans des attaques de cybersécurité, de produits chimiques et biologiques, la différence étant que les systèmes «à risque critique» pourraient entraîner un «résultat catastrophique (que Cela) ne peut pas être atténué dans (a) le contexte de déploiement proposé. «Les systèmes à haut risque, en revanche, pourraient rendre une attaque plus facile à réaliser mais pas aussi connectée ou dépendante qu’un système de risque critique.
De quelle sorte d’attaques parlons-nous ici? Meta donne quelques exemples, comme le «compromis automatisé de bout en bout d’un environnement à l’échelle d’entreprise des meilleures pratiques» et de la «prolifération d’armes biologiques à haut titre». La liste des catastrophes possibles dans le document de Meta est loin d’être exhaustive, reconnaît la société, mais a inclus celles que Meta croit être «la plus urgente» et plausible de se produire en conséquence directe de la récompense d’un puissant système d’IA.
Selon le document, la méta-classifie le risque du système qui ne se basait sur aucun test empirique d’Ony One informé par les chercheurs en interne et externes qui sont soumis à une revue par des «décideurs de niveau supérieur». Pourquoi? Meta dit qu’il ne croit pas que la science de l’évaluation est «suffisamment robuste pour fournir des mesures quantitatives» pour décider du risque d’un système.
Si Meta détermine qu’un système est à haut risque, la société affirme qu’elle limitera l’accès au système en interne et ne le libérera pas tant qu’il implémente les atténuations pour «réduire le risque à des niveaux modérés». Si, en revanche, un système est considéré comme un risque critique, Meta dit qu’elle mettra en œuvre des protections de sécurité non spécifiées pour empêcher le système d’exfiltrer et d’arrêter le développement jusqu’à ce que le système puisse être rendu moins dangereux.
Le cadre de l’IA de la frontière de Meta, qui, selon la société, évoluera avec l’évolution de la voie terrestre de l’IA, semble être une réponse à la critique de l’approche «ouverte» de l’entreprise au développement du système. Meta a adopté une stratégie pour rendre sa technologie d’IA ouvertement avairable – bien que non open source par la définition couramment comprise – contrairement à des entreprises comme OpenAI qui choisissent de faire gripper leur système derrière une API.
Pour Meta, l’approche à libération ouverte s’est avérée être une blessure et un programme d’études. La famille de modèles d’IA de l’entreprise, appelée Llama, a accumulé des centaines de millions de téléchargements. Mais Llama aurait également été utilisé par au moins un adversaire américain pour développer un chatbot de défense.
En publiant son cadre Frontier IA, Meta peut également être l’amour pour contraster sa stratégie d’IA ouverte avec la firme d’IA chinoise Deepseek’s. Deepseek rend également ses systèmes ouvertement disponibles. Mais l’IA de l’entreprise a été des garanties et peut être facile à gérer pour générer des résultats toxiques et nuisibles.
«(W) e croit qu’en considérant à la fois les avantages et les risques dans la prise de décisions sur la façon de développer et de déployer une IA avancée», écrit Meta dans le document: «Il est possible de fournir cette technologie à la société d’une manière qui présède les avantages de Cette technologie à la société tout en tenant un niveau de risque approprié. «
TechCrunch a une newsletter axée sur l’IA! Inscrivez-vous ici pour l’obtenir dans votre boîte de réception tous les mercredis.