Futurehouse, un organisme à but non lucratif soutenu par Eric Schmidt qui vise à construire un «scientifique de l’IA» au cours de la prochaine décennie, a lancé son premier produit: une plate-forme et une API avec des outils piqués par l’IA conçus pour soutenir les travaux scientifiques.
Beaucoup, de nombreuses startups se précipitent pour développer des outils de recherche sur l’IA pour le domaine scientifique, certains avec un amour massif du financement de VC derrière eux. Les géants de la technologie semblent aussi optimistes, nous avons pour la science. Plus tôt cette année, Google a dévoilé le «co-scientifique de l’IA», une IA qui, selon la société, pourrait aider les scientifiques à créer des hypothèses et des plans de recherche expérimentaux.
Les PDG des sociétés d’IA OpenAI et anthropic ont mis en évidence que les outils d’IA pourraient accélérer massivement la découverte scientifique, en particulier en médecine. Mais de nombreux chercheurs considèrent aujourd’hui l’IA comme étant utiles en grande partie pour guider le processus scientifique, en grande partie en raison de sa non-fiabilité.
Futurehouse a publié jeudi quatre outils AI: Crow, Falcon, Owl et Phoenix. Crow peut rechercher la littérature scientifique et répondre aux questions à ce sujet; Falcon peut comporter des recherches de littérature plus profondes, y compris des bases de données scientifiques; Owl recherche des travaux antérieurs dans un sujet donné; et Phoenix ULP Plane Chemistry Experiments.
«Contrairement aux autres (AIS), les futurshouse ont accès à un vaste corpus d’articles en libre accès de haute qualité et d’outils scientifiques spécialisés», écrit Futurehouse dans un article de blog. «Ils ont (également) un raisonnement transparent et utilisent un processus multi-interrupteur pour considérer chaque source plus en profondeur (…) en les enchaînant ensemble, à grande échelle, les scientifiques peuvent considérablement accélérer le rythme de la découverte scientifique.
Mais révélateur, Futurehouse n’a pas encore réalisé une percée scientifique ou fait une nouvelle découverte avec ses outils d’IA.
Une partie du défi dans le développement d’un «scientifique de l’IA» est d’anticiper un nombre incalculable de facteurs de confusion. L’IA pourrait être utile dans les domaines où une vaste exploration est nécessaire, comme réduire une vaste liste de possibilités. Mais il est moins clair où est capable du type de problème prêt à l’emploi qui conduit à des percées de bonne foi.
Événement TechCrunch
Berkeley, que
|
5 juin
Réserver maintenant
Les résultats des systèmes d’IA conçus pour la science jusqu’à présent ont été principalement décevants. En 2023, Google a déclaré qu’environ 40 nouveaux matériaux avaient été synthétisés à l’aide d’une de ses IA, appelée Gnome. Pourtant, une analyse extérieure n’a trouvé pas un seul des matériaux n’était, en fait, net nouveau.
Les lacunes et les risques techniques de l’IA, tels que sa tendance à halluciner, rendent également les scientifiques se méfiant de l’approuver pour un travail sérieux. Même des études bien conçues pourraient finir par être entachées par une mauvaise conduite de l’IA, qui a du mal à exécuter des travaux de haute précision.
En effet, Futurehouse reconnaît que ses outils d’IA – Phoenix en particulier – peuvent faire des erreurs.
«Nous publions (ceci) maintenant dans l’esprit d’une itération rapide», écrit la société dans son article de blog. «Veuillez fournir des commentaires lorsque vous l’utilisez.»