Alors que les consommateurs, les entreprises et les gouvernements affluent vers la promesse d’outils d’IA bon marché, rapides et apparemment magiques, une question continue de gêner: comment garder mes données privées?
Les géants de la technologie comme Openai, Anthropic, Xai, Google et d’autres se ramassent tranquillement et conservent les données des utilisateurs pour améliorer leurs modèles ou surveiller la sécurité et la sécurité, même dans certains contextes d’entreprise où les entreprises supposent que leurs informations sont proposées. Pour les industries ou les entreprises hautement réglementées à la frontière, cette zone grise pourrait être un dealbreaker. Les craintes de l’emplacement des données, qui peuvent les voir et comment elles pourraient être utilisées, ralentit l’adoption de l’IA dans des secteurs comme les soins de santé, la finance et le gouvernement.
Entrez la startup confiante de Startup, basée à San Francisco, qui vise à être «le signal pour l’IA». Le produit de l’entreprise, ConfSec, est un outil de chiffrement ouvert qui s’enroule autour des modèles Foundal, garantissant que l’invite et les métadonnées ne peuvent pas être stockées, vues ou utilisées pour la formation d’IA, même par le fournisseur de modèles ou n’importe quel tiers.
« La seconde où vous renoncez à vos données à quelqu’un d’autre, vous avez essentiellement réduit votre vie privée », a déclaré à TechCrunch Jonathan Mortensen, fondateur et PDG de Confidential Security. «Et l’objectif de notre produit est de supprimer ce compromis.»
Une sécurité confiante est sortie de la furtivité jeudi avec 4,2 millions de dollars de financement de semences de Decibel, South Park Commons, Ex ante et Swyx, TechCrunch a exclusivement appris. L’entreprise souhaite servir de fournisseur d’intermédiaire entre les fournisseurs d’IA et leurs clients – hyperscaleurs, gouvernements et entreprises.
Même les sociétés d’IA pourraient voir la valeur d’offrir l’outil de sécurité confiant aux clients des entreprises comme un moyen de débloquer ce marché, a déclaré Mortensen. Il a ajouté que ConfSEC est également bien adapté pour les nouveaux navigateurs d’IA frappant le marché, comme la comète récemment publiée de Perplexity, pour donner aux clients garantissant que leurs données sensibles ne sont pas stockées sur un serveur quelque part auquel l’entreprise ou les mauvais acteurs pourraient accéder, ou que les invites liées au travail ne sont pas utilisées pour «former l’IA pour faire votre travail».
Confsec est un modèle après l’architecture privée de calcul du cloud privé (CCC), qui dit Mortensen «est 10x mieux que tout en termes de garantie qu’Apple ne peut pas voir vos données» lorsqu’il exécute certaines tâches IA en toute sécurité dans le cloud.
Événement TechCrunch
San Francisco
|
27-29 octobre 2025
Comme le PCC d’Apple, le système de Sécurité confiant fonctionne en anonymisant les premières données en le cryptant et en les achetant via des services comme CloudFlare ou rapidement, de sorte que les serveurs ne voient jamais la source ou le contenu d’origine. Ensuite, il a utilisé un cryptage avancé qui n’autorise le déchiffrement que dans des conditions strictes.
« Vous pouvez donc dire que vous êtes autorisé à décrypter cela si vous n’allez pas enregistrer les données, et vous ne l’utiliseras pas pour la formation, et vous ne laissera personne le voir », a déclaré Mortensen.
Finally, le logiciel exécutant l’inférence de l’IA est enregistré publiquement et ouvert à l’examen afin que les experts puissent vérifier ses garanties.
« La sécurité confiante est en avance sur la courbe en reconnaissant que l’avenir de l’IA dépend de la confiance intégrée à l’infrastructure elle-même », a déclaré Jess Leão, associé chez Decibel, dans un statut. « Sans comme ça, de nombreuses entreprises ne peuvent tout simplement pas aller de l’avant avec l’IA. »
Il est encore tôt pour l’entreprise de l’année, mais Mortensen a déclaré que Confsec avait été testé, audité à l’extérieur et prêt pour la production. L’équipe est en pourparlers avec les banques, les navigateurs et le moteur de recherche, entre autres clients potentiels, pour ajouter de la confusion à leurs piles d’infrastructure.
« Vous apportez l’IA, nous apportons l’intimité », a déclaré Mortensen.