Les hallucinations sont à la base du fonctionnement des modèles linguistiques basés sur les transformateurs. En fait, c’est leur plus grand atout. C’est ainsi que les modèles linguistiques trouvent parfois des liens entre différents concepts. Cependant, les hallucinations peuvent devenir des malédictions lorsque les modèles de langue sont appliqués aux domaines où la vérité est importante. Des exemples peuvent aller des questions sur les politiques de soins de santé au code qui utilise correctement les API tierces. Avec l’agent AI, les intérêts sont encore plus élevés car les robots autonomes peuvent prendre des actions irréversibles, comme l’envoi d’argent en notre nom.
La bonne nouvelle est qu’il existe des moyens de faire en sorte que les systèmes d’IA suivent les règles, et les moteurs qui sous-tendent ces outils se développent également considérablement chaque année. Cette branche de l’IA est appelée inférence automatisée (A / K / A Symbolique AI) qui recherche symboliquement des preuves de logique mathématique pour les inférences sur la vérité et le mensonge qui découlent des politiques définies axiomatiquement.
Il est important de comprendre que nous ne parlons pas de probabilité ou de la meilleure supposition. Au lieu de cela, cela concerne les preuves strictes trouvées dans la logique mathématique grâce à la recherche algorithmique. L’IA symbolique a été développée dans les temps modernes par les grands esprits de Claude Shannon et Alan Turing, en utilisant les fondations initialement présentées par des prédécesseurs tels que Aristote, Boulevard et Friege.
Le raisonnement automatisé n’est pas seulement une théorie: en fait, il bénéficie d’une profonde adoption de l’industrie
Dans les années 1990, il a commencé par des preuves de circuits de bas niveau en réponse aux bogues FDIV. Il est ensuite devenu un système critique de sécurité utilisé par Airbus et la NASA. Aujourd’hui, il se déroule de plus en plus dans le cas de l’IA neuroréactive. Par exemple, Leibniz AI applique un raisonnement formel dans l’IA au domaine juridique, tandis qu’Atalanta applique la même idée au problème du contrat gouvernemental, et le système anti-alpha de DeepMind ne génère pas de faux arguments en mathématiques car il utilise des théorèmes maigres.
La liste est la suivante: le codelogian d’Imanda utilise des outils d’inférence automatisés et ne permet donc pas de synthétiser les programmes qui violent les règles d’utilisation de l’API. La fonction de vérification automatisée de la fonction de vérification de l’inférence d’Amazon se substitue les garde-corps utilise l’inférence automatisée ainsi que la formalisation axiomatique que le client peut définir pour filtrer la vérité à partir des instructions non truées. Pour les organisations qui cherchent à améliorer l’IA en toute confiance dans leur production, vous pouvez utiliser les capacités de déduction logique des outils d’inférence automatisés.
Une caractéristique importante du raisonnement automatisé est que, plutôt que de créer des informations, il admet que je « ne sais pas » lorsque je ne peux pas prouver une réponse valide. Dans de nombreux cas, les outils indiquent une logique concurrente, ce qui rend impossible de prouver ou de réfuter de manière fiable les déclarations et de montrer les raisons de leurs décisions.
Les outils d’inférence automatisés sont généralement moins chers à fonctionner, en particulier par rapport aux outils basés sur des transformateurs avides de puissance. La raison en est que les outils d’inférence automatisés ne fonctionnent symboliquement que ce qui est vrai et faux. Ils ne « craqueent pas les chiffres » et il n’y a pas de multiplications matricielles dans le GPU. Pour voir pourquoi, considérez des problèmes comme « Solving X » du cours de mathématiques de votre école. Réécriture x + y à y + x ou x (y + z) à xy + xz, et s’infiltre sur l’infini tout en créant des étapes simples. Ces étapes sont faciles à effectuer en millisecondes sur votre ordinateur.
Il est vrai que l’application de la logique mathématique n’est pas une solution universelle à tous les problèmes d’IA. Par exemple, nous serions douteux de l’axiomisation de ce qui rend les chansons et la poésie « Good ». Cela soulève également des doutes sur les outils qui prétendent prouver que la logique mathématique ne se décompose pas. Cependant, dans les applications où l’ensemble de vérité et peu claire de déclarations pour un domaine particulier (par exemple, l’admissibilité à la loi sur les congés médicaux familiaux ou l’utilisation correcte des bibliothèques de logiciels) est possible de définir axiomatiquement un ensemble de déclarations, cette approche fournit un moyen pratique de déployer en toute sécurité l’IA dans les domaines critiques commerciaux où la précision est la plus importante.
Commencer
Les outils d’inférence automatisés ont dû utiliser une expertise mathématique historiquement profonde, mais la puissance de croissance de l’IA générative le rend de plus en plus accessible à un public plus large, qui peut exprimer des règles en langage naturel et valider automatiquement la production d’IA contre ces règles. En fait, de nombreux modèles de langue sont formés sur la sortie des outils d’inférence automatisés (souvent en conjonction avec l’apprentissage par renforcement). La clé est de commencer par un cas d’utilisation clair qui peut être défini avec précision. Il s’agit d’un concept tel que le codage, la politique RH, les lois fiscales et plus encore. Elle s’applique également aux domaines où la vérification de la sécurité, la conformité, les infrastructures cloud et plus est en fait importante.
En avant
Lorsque nous essayons d’approfondir notre IA dans nos vies, notre capacité à vérifier l’exactitude et la vérité de leurs actions et de leurs résultats devient encore plus importante. Actuellement, les organisations investissant dans des capacités d’inférence automatisées sont mieux placées pour étendre en toute sécurité leur adoption de l’IA et des agents tout en maintenant le contrôle et la conformité. Envisagez une inférence automatisée lors de la prochaine réunion de stratégie de l’IA. Il peut être la clé de déployer en toute confiance l’IA pour toute l’organisation et pour le client.
Les opinions exprimées dans le commentaire sur Fortune.com sont les vues de leurs auteurs et ne reflètent pas nécessairement les opinions et les croyances de la bonne fortune.