Mercredi, la société de sécurité de l’IA Irregular a annoncé 80 millions de dollars de nouveaux fonds dans une ronde dirigée par Sequoia Capital et Redpoint Ventures, avec la participation du PDG de l’assistant Assaf Rappaport. Une source a conclu l’accord a déclaré que le tour était valorisé à 450 millions de dollars.
« Notre opinion est que bientôt, beaucoup d’activité économique viendront de l’interaction humaine-ai-ai et de l’interaction de nous », a déclaré le co-fondateur Dan Lahav à TechCrunch, « et cela va briser la pile de sécurité le long de plusieurs points. »
Forment connu sous le nom de Pattern Labs, irrégulière est déjà un acteur important dans les évaluations de l’IA. Les travaux de l’entreprise sont cités dans les évaluations de sécurité pour Claude 3.7 Sonnet ainsi que sur les modèles O3 et O4-Mini d’OpenAI. Plus généralement, le cadre de l’entreprise pour marquer la capacité de détection de vulnérabilité d’un modèle (doublé Solve) est largement utilisé avec l’industrie.
Bien que irrégulier ait fait des travaux importants sur les risques existants des modèles, la société collecte un œil sur quelque chose de plus ambitieux: repérer les risques et les comportements émergents avant qu’ils ne soient surface dans la nature. La société a construit un système élaboré d’environnement simulé, permettant des tests intensifs d’un modèle avant sa sortie.
«Nous avons des simulations de réseaux complexes où nous avons une IA à la fois pour jouer le rôle d’attaque et de défenseur», explique le co-fondateur Omer Nevo. « Donc, quand un nouveau modèle sort, nous pouvons voir les défenses résister et où ils ne font pas. »
La sécurité est devenue un point de mise au point intense pour l’industrie de l’IA, car les risques potentiels posés par les modèles frontaliers comme davantage de risques ont émergé. OpenAI a surchargé ses mesures de sécurité intérieure cet été, en tenant compte de l’espionnage des entreprises potentielles.
Dans le même temps, les modèles d’IA sont de plus en plus adeptes pour trouver des vulnérabilité des logiciels – un pouvoir avec de graves implications pour les attaquants et les défenseurs.
Événement TechCrunch
San Francisco
|
27-29 octobre 2025
Pour les fondateurs irréguliers, c’est le premier de nombreux maux de tête de sécurité causés par les capacités croissantes des modèles de grande langue.
« Si l’objectif du Frontier Lab est de créer des modèles de plus en plus sophistiqués et capables, notre objectif est de sécuriser ces modèles », explique Lahav. « Mais c’est une cible en mouvement, donc intrinsèquement il y a beaucoup, beaucoup, beaucoup plus de travail à faire à l’avenir. »