Avec de longues listes d’attente et une augmentation des coûts des systèmes de santé surchargés, de nombreuses personnes se tournent vers des chatbots en A comme Chatgpt pour l’auto-diagnostic médical. Environ un adulte américain sur six utilise déjà des chatbots pour des conseils de santé au moins mensuellement, selon une récence.
Mais mettre trop de confiance dans les résultats des chatbots peut être risqué, en partie parce que les gens ont du mal à savoir quelles informations donner des chatbots pour les meilleures recommandations de santé possibles, selon une étude dirigée par Rered Oxford.
«L’étude a révélé une ventilation à deux voies de communication», a déclaré à TechCrunch Adam Mahdi, directeur des études supérieures à l’Oxford Internet Institute et co-auteur de l’étude. «Ceux qui utilisent (chatbots) n’ont pas pris de meilleures décisions que les participants qui se sont reliés sur des méthodes traditionnelles comme les recherches en ligne ou leur propre jugement.
Pour l’étude, les auteurs ont recruté environ 1 300 personnes au Royaume-Uni et leur ont donné des scénarios médicaux écrits par un groupe de médecins. Les participants que nous avons chargés d’identifier les problèmes de santé potentiels dans les scénarios et d’utiliser des chatbots, ainsi que leurs méthodes, pour comprendre les possibilités d’action (par exemple, voir un médecin ou aller à l’hôpital).
Les participants ont utilisé le modèle d’IA par défaut alimentant ChatGPT, GPT-4O, ainsi que la commande de Cohere R + et Meta’s Llama 3, qui a autrefois soutenu l’assistant Meta AI de l’entreprise. Selon les auteurs, les chatbots ont non seulement rendu les participants moins susceptibles d’identifier un état de santé de levage, mais cela les a également rendus plus susceptibles de désestimer la gravité des conditions qu’ils ont identifiées.
Mahdi a déclaré que les participants avaient souvent omis les détails clés lors de l’interrogation des chatbots ou avaient reçu des swers de années que nous avions difficiles à interpréter.
« (T) Il répond qu’ils reçoivent (des chatbots) ont fréquemment combiné de bonnes et de mauvaises recommandations », a-t-il ajouté. «Les méthodes actuelles pour (chatbots) ne reflètent pas la complexité de l’interaction avec les utilisateurs humains.»
Événement TechCrunch
Berkeley, que
|
5 juin
Réserver maintenant
Les résultats viennent alors que les entreprises technologiques poussent de plus en plus l’IA pour améliorer les résultats pour la santé. Apple aurait développé un outil d’IA qui peut dispenser des conseils liés à l’exercice, à l’alimentation et au sommeil. Amazon explore une façon basée sur l’IA d’analyser les bases de données médicales pour les «déterminants sociaux de la santé». Et Microsoft aide à construire l’IA pour le triage des messages pour les prestataires de soins aux patients.
Mais comme TechCrunch l’a précédemment signalé, les professionnels et les patients sont mélangés de manière à ce que l’IA soit prête pour des applications de santé à plus haut risque. L’American Medical Association recommande contre l’utilisation des chatbots des médecins comme Chatgpt pour obtenir de l’aide dans les décisions cliniques et les grandes sociétés d’IA, y compris OpenAI, mettent en garde contre les diagnostics en fonction des résultats de leurs chatbots.
« Nous recommandons de compter sur des sources d’information de confiance pour les décisions de soins de santé », a déclaré Mahdi. « Les méthodes actuelles pour (chatbots) ne reflètent pas la complexité de l’interaction avec les utilisateurs humains. Comme les essais cliniques pour les nouveaux médicaments, (Chatbot) doit être testé dans le monde réel avant d’être déployé. »