Par Alex Lanstein, CTO, Strikeready
Il ne fait aucun doute que l’intelligence artificielle (IA) a rendu plus facile et plus rapide des affaires. La vitesse que l’IA permet pour le développement de produits est certainement importante – et il ne peut pas être sous-estimé à quel point cela est important, si vous concevez le prototype d’un nouveau produit ou du site Web pour le vendre.

De même, les modèles de grandes langues (LLM) comme le chatppt d’Openai et les Gémeaux de Google ont révolutionné la façon dont les gens font des affaires, pour créer ou analyser rapidement de grands amants de texte. Cependant, comme les LLM sont le nouveau jouet brillant que les professionnels utilisent, ils peuvent ne pas reconnaître les inconvénients qui rendent leurs informations moins sécurisées. Cela fait de l’IA un sac mixte de risques et d’opportunités que chaque propriétaire d’entreprise devrait considérer.
Accès à l’émission
Chaque propriétaire d’entreprise comprend l’importance de la protection des données, et l’équipe de sécurité d’une organisation mettra en place des contrôles pour s’assurer que les employés que vous avez accès aux informations qu’ils ne sont pas censés. Mais en dépit d’être bien conscients de ces structures d’autorisation, de nombreuses personnes vous appliquez ces principes à leur utilisation des LLM.
Généralement, les personnes qui utilisent des outils d’IA ne comprennent pas exactement où les informations qu’ils y alimentent peuvent. Même les experts en cybersécurité – qui connaissent autrement mieux les risques causés par des contrôles des données lâches – peuvent être coupables de cela. Souvent, ils alimentent les données d’alerte de sécurité ou la réponse des incidents dans des systèmes comme Chatgpt Willy, le gré-gouttes, sans réfléchir à ce qui arrive aux informations après avoir reçu le résumé ou l’analyse qu’ils voulaient générer.
Cependant, le fait est qu’il y a des gens qui examinent activement les informations que vous soumettez aux modèles hébergés publiquement. Qu’ils fassent partie du département anti-abus ou travaillent à affiner les modèles d’IA, vos informations sont soumises à des globes oculaires humains et les habitants d’une myriade de pays peuvent voir vos documents critiques. Même donner des commentaires aux réponses rapides peut déclencher des informations utilisées de manière à ne pas s’attendre ou l’intention. Le simple fait de donner un coup de pouce vers le haut ou vers le bas dans Res responsable d’un résultat rapide peut conduire à quelqu’un que vous ne connaissez pas accéder à vos données et vous pouvez absolument y faire. Il est important de comprendre que les données commerciales confidentielles que vous alimentez les LLM sont en cours d’examen par des personnes inconnues qui peuvent copier et coller tout.
Les dangers des informations non liées
Malgré l’énorme amour des informations qui sont introduites quotidiennement dans l’IA, la technologie a toujours un problème de fiabilité. Les LLM ont tendance à halluciner – faire en sorte que les informations du tissu entier – lorsqu’elles sont liées à provoquer. Cela en fait une proposition désagréable pour les utilisateurs de se connecter sur la technologie lors de la recherche. Un récit de Bonday récent et très médiatisé s’est produit lorsque le cabinet d’avocats pour les blessures corporelles Morgan & Morgan a cité huit boîtes fictives, qui étaient le produit des hallucinations de l’IA, dans un procès. Par conséquent, un juge fédéral du Wyoming a menacé de gifler des sanctions contre les deux avocats qui sont devenus trop à l’aise de s’appuyer sur la production LLM pour la recherche juridique.
De même, lorsque l’IA ne fait pas d’informations, il peut être fourni d’informations qui ne sont pas correctement attribuées, ce qui crée des énigmes de copyright. Le matériel protégé par le droit d’auteur de quiconque peut être utilisé par d’autres sans son Nowledge – lui seul, ce qui peut mettre tous les amateurs de LLM à risque d’être involontairement à un autoroute de droit d’auteur, ou celui dont le droit d’auteur a été violé. Par exemple, Thomson Reuters a remporté un procès en droit d’auteur contre Ross Intelligence, une startup légale de l’IA, sur son utilisation du contenu de Westlaw.
En fin de compte, vous voulez savoir d’où va votre contenu – et d’où il vient. Si une organisation s’appuie sur une IA pour le contenu et qu’il y a une erreur coûteuse, il peut être impossible de savoir si l’erreur a été commise par une hallucination LLM, ou l’être humain qui a utilisé la technologie.
Barrières inférieures à l’entrée
Malgré les défis que l’IA peut créer dans les affaires, la technologie a également créé beaucoup d’opportunités. Il n’y a pas de vétérans réels dans cet espace – donc quelqu’un qui fraîche à l’université n’est plus désaffecté par rapport à quiconque. Bien qu’il puisse y avoir un vaste écart de compétences avec d’autres types de technologie qui augmentent significatif des obstacles à l’entrée, avec une IA générative, il n’y a pas un énorme obstacle à son utilisation.
En conséquence, vous pourrez peut-être intégrer plus facilement les employés subalternes avec une promesse dans certaines activités commerciales. Étant donné que tous les employés sont un niveau comparable sur les règles du jeu de l’IA, tout le monde dans une organisation peut tirer parti de la technologie pour ses emplois respectifs. Cela ajoute à la promesse de l’IA et des LLM pour les entrepreneurs. Bien qu’il y ait des défis clairs que les entreprises doivent naviguer, les avantages de la technologie l’emportent de loin sur les risques. Comprendre ces lacunes possibles peut vous aider à profiter avec succès de l’IA afin de ne pas finir par vous laisser derrière la compétition.
À propos de l’auteur:
Alex Lanstein est CTO de Strikeready, une solution de centre de commande de sécurité à Powed Security. Alex est auteur, chercheur et expert en cybersécurité, et a réussi à faire certains des botnets les plus pernicieux du monde: Rustock, Srizbi et Mega-D.