L’intelligence artificielle est un monde profond et alambiqué. Les scientifiques qui travaillent dans ce domaine comptent souvent sur le jargon et le jargon pour expliquer sur quoi ils travaillent. En conséquence, nous devons souvent utiliser ces termes techniques dans notre couverture de l’industrie de l’intelligence artificielle. C’est pourquoi nous avons réussi qu’il serait utile de créer un glossaire avec des définitions de certains des mots et des phraes les plus importants que nous avons utilisés dans nos articles.
Nous mettrons régulièrement à jour ce glossaire pour ajouter de nouvelles entrées alors que les chercheurs continuent de découvrir de nouvelles méthodes pour pousser la frontière de l’intelligence artificielle tout en identifiant les risques de sécurité émergents.
Un agent d’IA fait référence à un outil qui utilise les technologies de l’IA pour effectuer une série de tâches en votre nom – au-delà de ce qu’un chatbot IA plus basique pourrait faire – comme le dépôt de dépenses, la réservation de billets ou une table dans un restaurant, ou même l’écriture et la détention de code. Cependant, comme nous l’avons expliqué auparavant, il y a beaucoup de pièces en mouvement dans cet espace émergent, donc différentes personnes peuvent signifier différentes choses lorsqu’ils ont un agent. L’infrastructure est également en cours de construction pour obtenir des capacités prévues. Mais le concept de base implique un système autonome qui peut s’appuyer sur plusieurs systèmes d’IA pour effectuer des tâches en plusieurs étapes.
Étant donné une question simple, un cerveau humain peut répondre sans même y penser trop – des choses comme «quel animal est plus grand entre une girafe et un chat?» Mais dans de nombreux cas, vous avez souvent besoin d’un stylo et d’un papier pour trouver la bonne réponse car il y a des étapes intermédiaires. Par exemple, si un fermier a des poulets et des vaches, et ensemble, il a 40 têtes et 120 jambes, vous devrez peut-être écrire une équation simple pour trouver la réponse (20 poulets et 20 vaches).
Dans une AI A Ai Contixt, le raisonnement en chaîne de pensées pour les modèles de gros langues signifie décomposer un problème en étapes intermédiaires plus petites pour améliorer la qualité du résultat final. Il faut généralement la ligne pour obtenir un Amewer, mais la réponse est plus susceptible d’être correcte, en particulier dans un contexte logique ou codant. Les modèles de raisonnement dits sont développés à partir de modèles de grande langue traditionnels et optimisés pour la pensée de la chaîne de pensées grâce à l’apprentissage du renforcement.
(Voir: Modèle de grande langue)
Un sous-ensemble d’apprentissage automatique d’auto-amélioration dans lequel les algorithmes d’IA sont conçus avec une structure de réseau neuronal artificiel multicouche (ANN). Cela leur permet de créer des corrélations plus complexes par rapport à un système simple basé sur l’apprentissage automatique, tels que des modèles linéaires ou des arbres de décision. La structure des algorithmes d’apprentissage en profondeur s’inspire des voies interconnectées des neurones dans le cerveau humain.
Les AIS en profondeur sont capables d’identifier les caractéristiques importantes des données elles-mêmes, plutôt que d’obliger les ingénieurs humains à définir ces caractéristiques. La structure prend également en charge les algorithmes qui peuvent apprendre des erreurs et, grâce à des processus de répétition et ajouter, améliorer leurs propres sorties. Cependant, les systèmes d’apprentissage en profondeur nécessitent beaucoup de points de données pour donner de bons résultats (des millions ou plus). Il faut également généralement formé pour former l’apprentissage en profondeur par rapport aux algorithmes d’apprentissage automatique plus simples – de sorte que les coûts de développement ont tendance à être plus élevés.
(Voir: réseau neuronal)
Cela signifie une formation plus approfondie d’un modèle d’IA qui vise à optimiser les performances pour une tâche ou une zone plus spécifique que ce qui était auparavant un point focal de sa formation typiquement en se nourrissant de nouvelles données spécialisées (i axées sur les tâches).
De nombreuses startups d’IA sont prises de grands modèles de langage comme point de départ pour construire un commerce, mais en lice pour amplifier l’utilité pour un secteur ou une tâche cible en complétant les cycles de formation antérieurs avec des réglages fins en fonction de leurs propres connaissances et expertise spécifiques au domaine.
(Voir: Modèle de grande langue (LLM))
Les modèles de grands langues, ou LLMS, sont les modèles d’IA utilisés par les assistants populaires AI, tels que Chatgpt, Claude, Google’s Gemini, Meta’s Ai Llama, Microsoft Copilot, Gold Mistral’s Cat. Lorsque vous discutez avec un assistant AI, vous interagissez avec un modèle grand langage qui traite votre demande directement ou à l’aide de différents outils disponibles, tels que la navigation Web ou les interprètes de code.
Les assistants AI et les LLM peuvent avoir des noms différents. Par exemple, GPT est le modèle grand langage d’Openai et Chatgpt est le produit assistant AI.
Les LLM sont des réseaux profonds de Neuel en milliards de paramètres numériques (ou de poids, voir ci-dessous) qui apprennent les relations entre les mots et créent une represnation du langage, une sorte de carte multidimente des mots.
Ceux-ci sont créés en codant pour les modèles qu’ils trouvent dans des milliards de livres, d’articles et de transcriptions. Lorsque vous invitez un LLM, le modèle génère le modèle le plus probable qui correspond à l’invite. Il évalue ensuite le mot suivant le plus probable après le dernier en fonction de ce qui a été dit auparavant. Répétez, répétez et répétez.
(Voir: réseau neuronal)
Le réseau neuronal fait référence à la structure algorithmique à plusieurs loyers qui sous-tend l’apprentissage en profondeur et, plus largement, l’ensemble des outils d’IA génératifs après l’émergence de modèles de gros langues.
Bien que l’idée de s’inspirer des voies densément interconnectées du cerveau humain en tant que structure de conception pour les algorithmes de traitement des données remonte aux années 40, c’était la montée beaucoup plus récente du matériel de traitement graphique (GPU) – via l’industrie du jeu vidéo – qui a vraiment débloqué la puissance de la théorie. Ces puces se sont bien révélées pour former des algorithmes avec beaucoup plus de couches que ce qui était possible dans les systèmes d’IA basés sur les réseaux de neurones, ce qui permet d’obtenir de bien meilleures performances dans de nombreux domaines, lors de la reconnaissance vocale, de la navigation autonome ou de la découverte de médicaments.
(Voir: Modèle de grande langue (LLM))
Les poids sont au cœur de la formation AI ASY déterminez la quantité d’importation (ou du poids) à différentes fonctionnalités (ou variables d’entrée) dans les données utilisées pour la formation du système – façonnant ainsi la sortie du modèle d’IA.
Autrement dit, les poids sont des paramètres numériques qui définissent ce qui est le plus important dans l’ensemble de données pour la tâche de formation donnée. Ils atteignent leur fonction en appliquant une multiplication aux entrées. L’entraînement du modèle commence généralement par des poids qui sont assignés au hasard, mais le processus se déroule, les poids ajoutés car le modèle cherche à arriver à une sortie qui correspond plus étroitement à la cible.
Par exemple, un modèle d’IA pour prédire les prix des logements formés sur les données immobilières historiques pour une location cible pourrait inclure des poids pour des fonctionnalités telles que le nombre de chambres et de salles de bains, que ce soit une propriété détachée, semi-détachée, si elle a ou non par rapport et garage, et garage, donc.
En fin de compte, le poids du modèle est lié à chacune de ces entrées est le reflet de la quantité d’influence de la valeur d’une propriété, sur la base de l’ensemble de données donné.