Le secteur privé est apparu dans le siège conducteur du développement de l’IA depuis la sortie de Chatgpt fin 2023. De grandes entreprises comme Microsoft, Google, Alibaba et de petites startups comme l’humanité et Mistral tentent tous de monétiser cette nouvelle technologie pour une croissance future.
Cependant, lors de la conférence Fortune Brainstorming AI Singapore mercredi, deux experts ont appelé à une approche plus humaine et interdisciplinaire de l’intelligence artificielle.
Non seulement l’IA doit être plus rapide et moins chère, mais elle doit également « penser mieux », explique Anthea Roberts, fondatrice de Startup Dragonfly Thinking. Les modèles humains et IA peuvent avoir du mal à voir au-delà d’une perspective particulière, qu’ils soient basés sur le pays ou la discipline dans le cas d’un pays ou d’une « approche centristique » dans le cas d’un ordinateur. La collaboration humaine-AI, explique-t-elle, permet aux décideurs politiques de réfléchir aux problèmes de diverses perspectives nationales, disciplinaires et de domaine, et d’augmenter la probabilité de succès.
L’intelligence artificielle est une «technologie civilisée», et les écosystèmes multipliés dans le monde universitaire, la société civile, le gouvernement et l’industrie s’efforcent de l’améliorer, explique Russell Wald, directeur exécutif du Stanford Institute for Human centré sur l’homme.
« L’industrie doit vraiment être un leader dans ce domaine, mais le monde universitaire aussi », a-t-il déclaré, soulignant un soutien précoce à la technologie frontalière, la capacité de former de l’avenir « les dirigeants de l’IA » et sa volonté de publier des informations.
Empêcher l’IA de devenir un « oncle fou »
Malgré la croissance rapide de l’utilisation de l’IA, certaines personnes sont toujours sceptiques quant à l’utilisation de l’IA, se référant à halluciner ou à sortir des hallucinations ou des rails dans un langage étrange ou agressif.
Roberts a suggéré que la plupart des gens tombent dans deux camps. Le premier camp, qui comprend la plupart des acteurs de l’industrie et des étudiants universitaires, s’engage dans «l’utilisation non critique» de l’IA. Au lieu de cela, l’autre suit la «non-utilisation critique». Les personnes préoccupées par les biais, la transparence et la fraude refusent simplement de rejoindre le train de l’IA.
« Nous inviterons des personnes qui ne sont pas des frères technologiques de la Silicon Valley à participer à la façon dont ces produits sont utilisés et façonnés », a-t-elle déclaré.
Wald a déclaré que son laboratoire avait beaucoup appris sur l’humanité dans le processus de formation de l’IA. « Vous voulez la bonne partie de l’humanité … pas l’oncle fou à la table de Thanksgiving », a-t-il déclaré.
Les deux experts ont déclaré qu’il était important de bien faire l’IA, car cette nouvelle technologie pourrait potentiellement apporter à la société.
« Nous devons le considérer non seulement comme ce que les gens veulent, mais souvent comme leur instinct de base, mais ce qu’ils veulent, c’est leur instinct plus altruiste », a expliqué Roberts.