Les sceptiques de l’IA ne sont pas les seuls à avertir les utilisateurs de ne pas faire confiance sans réfléchir aux résultats des modèles – c’est ce que disent les sociétés d’IA elles-mêmes dans leurs conditions de service.
Prenez Microsoft, qui s’efforce actuellement de faire payer les entreprises clientes pour Copilot. Mais les réseaux sociaux ont également suscité des inquiétudes à propos des conditions d’utilisation de Copilot, qui semblent avoir été mises à jour pour la dernière fois le 24 octobre 2025.
« Copilot est uniquement destiné à des fins de divertissement », a prévenu la société. « Il peut commettre des erreurs et cela peut ne pas fonctionner comme prévu. Ne comptez pas sur Copilot pour obtenir des conseils importants. Utilisez Copilot à vos propres risques. »
Un porte-parole de Microsoft a déclaré à PCMag que la société mettrait à jour ce qu’elle a décrit comme un « langage hérité ».
« Au fur et à mesure que le produit a évolué, ce langage ne reflète plus la façon dont Copilot est utilisé aujourd’hui et sera modifié lors de notre prochaine mise à jour », a déclaré le porte-parole.
Tom’s Hardware a noté que Microsoft n’est pas la seule entreprise à utiliser ce type de clause de non-responsabilité pour l’IA. Par exemple, OpenAI et xAI recommandent aux utilisateurs de ne pas considérer leurs résultats comme « la vérité » (pour citer xAI) ou comme « un seul service de vérité ou d’informations factuelles » (OpenAI).

