L’intelligence artificielle peut être un moyen prometteur d’augmenter la productivité sur le lieu de travail, mais se pencher vers la technologie peut empêcher les experts de maintenir ses propres compétences. Plus précisément, l’IA semble exacerber certains médecins lors de la détection des irrégularités lors du dépistage de routine, de nouvelles recherches ont été découvertes et soulevant des préoccupations concernant les experts qui dépendent trop de la technologie.
Une étude publiée ce mois-ci dans le Lancet Gastroenterology & Hepatology Journal a révélé que 1 443 patients ayant subi une coloscopie avec ou sans système assisté par l’IA, les endoscopes déployés dans le système d’assistance AI ont atteint 22,4% avec la technologie introduite dans les outils AI, puis 22,4% avec 22,4% avec la technologie.
Ce fut une surprise pour le Dr Marcin Romańczyk, gastro-entérologue à HT, que les médecins n’ont pas pu détecter de nombreux polypes dans le côlon lorsqu’ils ont cessé d’utiliser l’aide d’IA. Auteur de Ticy Medical Center and Research en Pologne. Les résultats remettent en question non seulement la paresse potentielle qui se développe à la suite d’une dépendance excessive à l’IA, mais appelle également un changement dans la relation entre les praticiens et la tradition de longue date de la formation analogique.
« Nous avons appris les médicaments par nos livres et nos mentors. Nous les observons. Ils nous disaient quoi faire », a déclaré Romasik. « Et maintenant, il y a des matériaux artificiels qui suggèrent ce que nous devons faire et où chercher, et nous ne savons pas comment nous nous comporterons réellement dans ce cas particulier. »
Au-delà de la hausse de l’utilisation de l’IA dans les salles d’opération et les cabinets de médecins, la forte augmentation de l’automatisation du lieu de travail a donné un meilleur espoir d’améliorer les performances du lieu de travail. Goldman Sachs a prédit l’année dernière que la technologie pourrait augmenter la productivité de 25%. Cependant, de nouvelles recherches mettent également en garde contre les pièges de l’adoption d’outils d’IA sans considérer leurs effets négatifs. Une enquête de l’Université Microsoft et Carnegie Mellon plus tôt cette année a révélé que parmi les travailleurs des connaissances interrogés, l’IA a amélioré l’efficacité du travail, mais a réduit l’engagement critique avec le contenu et l’atrophie des compétences de jugement.
La recherche de Romańczyk contribue à cette étude croissante qui a remis en question la capacité des humains à utiliser l’IA sans compromettre leurs compétences. Dans ses recherches, le système d’IA a aidé à identifier les polypes du côlon en plaçant des boîtes vertes dans les zones avec des anomalies. Certes, Romańczyk et son équipe n’ont pas prédit ce résultat et n’ont donc pas collecté des données sur les raisons pour lesquelles cela s’est produit, mesurant ainsi pourquoi l’endoscopiste s’est comporté de cette façon.
Au lieu de cela, Romańczyk spécule que lorsque la technologie avait disparu, les experts n’avaient aucune idée de prêter attention à certains domaines, car les endoscopes sont habitués à chercher des boîtes vertes. Il l’a appelé « Google Maps Effect » et a comparé ses recherches à des changements qui sont passés de l’âge des cartes papier à l’âge du GPS. Beaucoup de gens comptent sur l’automatisation pour montrer la route la plus efficace il y a 20 ans.
Vérification et équilibre AI
Les conséquences réelles de l’automatisation qui atrophisent les compétences critiques humaines sont déjà établies.
En 2009, le vol Air France 447, sur le chemin de Rio de Janeiro à Paris, est tombé dans l’océan Atlantique, avec 228 passagers et tous les membres de l’équipage de vol à bord. L’enquête a révélé que le pilote automatique de l’avion a été coupé, les cristaux de glace ont détruit le capteur de vitesse de l’air et que le « directeur de vol » automatisé de l’avion a fourni des informations inexactes. Cependant, le personnel des vols n’a pas été formé efficacement à la façon de voler manuellement dans ces conditions et a plutôt adopté la mauvaise direction du directeur automatique des vols en échange de corrections appropriées. Les accidents d’Air France sont l’une des nombreuses personnes qui ne sont pas formées à la propriété et comptent plutôt sur les fonctions des avions automatisés.
« Nous voyons une situation où il y a des pilotes qui ne peuvent pas comprendre ce que l’avion fait à moins que l’ordinateur ne l’interprète pour eux », a déclaré William Voss, président de la Flight Safety Foundation, au moment de l’enquête d’Air France. « Ce n’est pas un problème unique à Airbus, pas à Air France, c’est un nouveau défi de formation à laquelle l’industrie dans son ensemble doit faire face. »
Selon Lin Wu, professeur agrégé d’administration, d’information et de décisions à l’école de Wharton de l’Université de Pennsylvanie, ces cas apportent des périodes de calcul, en particulier pour les secteurs importants où la vie humaine est en danger, et en particulier pour les secteurs importants où la vie humaine est en danger. Il a déclaré que si l’industrie devrait s’appuyer sur la technologie, les institutions devraient être responsables de s’assurer que les humains l’adoptent correctement.
« La clé est d’apprendre de cette histoire de l’aviation et de la génération précédente d’automatisation. L’IA peut absolument améliorer les performances », a déclaré Wu à Fortune. « Mais en même temps, vous devez maintenir ces compétences importantes, car vous savez comment prendre le relais lorsque l’IA ne fonctionne pas. »
De même, Romańczyk n’évite pas l’existence de l’IA en médecine.
« L’IA fait partie de nos vies, soit une partie de nos vies, que cela nous plaise ou non », a-t-il déclaré. « Nous ne disons pas que l’IA est mauvaise (pour arrêter de l’utiliser), mais nous disons tous que nous devons essayer d’enquêter sur ce qui se passe dans notre cerveau.
Si les experts et les experts souhaitent utiliser l’automatisation pour améliorer leur travail, ils s’efforcent de maintenir un ensemble critique de compétences. L’IA s’appuie sur les données humaines pour se former. Autrement dit, si la formation est défectueuse, elle sera également sortie.
« Quand nous devenons vraiment mauvais, l’IA devient vraiment vraiment mauvaise », a déclaré Wu. « Pour que l’IA soit meilleure, nous devons aller mieux. »