Mistral AI cherche à se positionner comme une alternative sûre à OpenAI et aux autres outils d’IA dans l’espace de l’IA. La société introduit une API pour la modération du contenu.
L’API reconnaît les contenus nuisibles de huit catégories différentes. Les exemples incluent les discours de haine, les contenus à caractère sexuel, la violence et les informations sensibles. La reconnaissance se produit à la fois dans les messages et dans les conversations.
Mistral AI a intégré LLM Mistral 8B pour les services de sécurité. Ce modèle est disponible depuis plusieurs semaines.
« La sécurité est extrêmement importante dans l’IA »
L’entreprise estime qu’il est particulièrement important que les développements dans le secteur de l’IA se fassent toujours en gardant à l’esprit la sécurité. Certains signes indiquent que la sécurité dans le développement est rapidement mise de côté au profit d’autres intérêts chez son concurrent OpenAI. Plusieurs dirigeants qui ont quitté l’entreprise ont soulevé la question dans des publications publiques concernant les raisons de leur départ.
A lire aussi : Capital ou sécurité : OpenAI est affecté par le choix du capital
« Ces derniers mois, nous avons constaté un enthousiasme croissant dans l’industrie et dans la communauté de la recherche pour les nouveaux systèmes de modération basés sur LLM, qui contribueront à rendre la modération évolutive et plus robuste dans toutes les applications, affirme la société. »
Pour lui donner un avantage supplémentaire sur les autres concurrents aux États-Unis, l’API prend en charge 11 langues. Les concurrents américains s’en tiennent souvent à leur langue maternelle et les « langues étrangères » sont traitées avec moins d’attention. L’API prend en charge l’arabe, l’anglais, le français, l’allemand, l’italien, le japonais, le coréen, le portugais, le russe et l’espagnol.
Indice! WSO2 cherche à rendre la gestion des API IA gérable