Anthropic lance un programme d’IA for Science pour soutenir les chercheurs travaillant sur des projets scientifiques «à haute objet», en mettant l’accent sur les applications de biologie et de sciences de la vie.
Le programme, annoncé lundi, offrira jusqu’à 20 000 $ en crédits API anthropes sur une période de six mois à des chercheurs «qualifiés» qui seront sélectionnés sur leurs «contributions à la science, l’impact potentiel de leurs recherches proposées et la capacité de A à accélérer de manière significative leur travail». Contaixes aura accès à la suite de modèles AI standard d’Anthropic, comprenant toutes les modèles Claude accessibles au public de l’entreprise.
« Les capacités avancées du raisonnement et du langage d’IA peuvent aider les chercheurs à analyser des données scientifiques complexes, à générer des hypothèses, à concevoir une expérience et à communiquer des résultats plus efficaces », a écrit Anthropic dans un article de blog. «Nous sommes particulièrement intéressants à soutenir les applications où peut aider à accélérer les processus liés à la compréhension du système biologique complexe, à l’analyse des données génétiques, à une découverte de médicaments accélérée en particulier pour certains des grands charges mondiales de dissease, une augmentation de la productivité agricole, et plus encore.
Anthropic est une parmi les entreprises de May IA optimistes sur une science pour la science. Plus tôt cette année, Google a dévoilé un «co-scientifique de l’IA», qui, selon le géant de la technologie, pourrait aider les scientifiques à créer des hypothèses et des plans de recherche. Anthropic et son principal rival, Openai, ainsi que des tenues comme Futurehouse et Lilia Sciences, ont mis en évidence que les outils d’IA pourraient accélérer massivement la découverte scientifique, en particulier en médecine.
Mais de nombreux chercheurs considèrent aujourd’hui l’IA comme étant utile sur le point de guider le processus scientifique, largement en raison de sa non-fiabilité.
Une partie du défi dans le développement d’un «scientifique de l’IA» est d’anticiper un nombre incalculable de facteurs de confusion. L’IA pourrait être utile dans les domaines où une vaste exploration est nécessaire, comme rétrécir une vaste liste de possibilités, mais il est moins clair s’il peut faire le type de résolution de problèmes hors de la boîte qui conduit à des percées de GoodFide.
Les résultats des systèmes d’IA conçus pour la science ont jusqu’à présent été principalement décevants. En 2023, Google a déclaré qu’environ 40 nouveaux matériaux avaient été synthétisés à l’aide d’une de ses IA, appelée Gnome. Mais une analyse extérieure n’a pas trouvé que même un de ces matériaux n’était, en fait, nouveau.
Anthropic espère sans aucun doute que ses efforts seront meilleurs que ceux qui seront devant lui.
Événement TechCrunch
Berkeley, que
|
5 juin
Réserver maintenant
La société affirme qu’elle fera des sélections pour son programme d’IA pour la science sur le premier monde de chaque mois en fonction du mérite scientifique, de l’impact potentiel, de la faisabilité technique et des critères de dépistage de la biosécurité (c’est-à-dire que la recherche proposée n’a pas pu permettre des applications nocives). Les chercheurs peuvent postuler via un formulaire sur le site Web de l’entreprise, avec des demandes à être délectées par anthropic «Inclure des experts en la matière dans les domaines de réception».