Avec de nouvelles fonctionnalités d’IA qui sont devenues le plus grand public les unes après les autres, il est attrayant de donner à chacun les mêmes considérations approximatives. Mais cela vaut la peine d’attirer plus d’attention que les autres.
Considérez Ai Deepfake. Les escrocs peuvent désormais utiliser des outils de générateur pour créer de faux audio et une vidéo en direct comme une personne en particulier, les faire ressembler à une personne en particulier et demander un transfert. Ainsi, la semaine dernière, Emily Chiu, PDG de la startup fintech basée à Miami Novo au Sommet féminin le plus puissant de Fortune, a déclaré:
Arnaque à Ai-Ai
Elle a commencé à transférer plus de 25 millions de dollars à des fraudeurs l’année dernière à Hong Kong, citant l’incident à Hong Kong. Bien qu’ils soient sceptiques après avoir reçu la demande de courrier électronique des fonds, les employés ont été séduits par un appel de zoom où personne d’autre n’était réel, mais ils ressemblaient et ressemblaient au CFO et à d’autres dirigeants basés au Royaume-Uni de l’entreprise.
Un officier enquêtant sur l’incident a déclaré aux médias locaux que l’arnaque précédente comprenait un appel vidéo en tête-à-tête: « Cette fois, lors d’une conférence vidéo avec plusieurs personnes, il s’avère que tous ceux que vous voyez sont faux. »
Mais bien qu’il soit aussi sophistiqué que la technologie de l’IA derrière de telles escroqueries, il est relativement facile d’accès et d’utilisation.
« L’accessibilité générale de ces services a réduit les obstacles à l’entrée pour les cybercriminels. Il n’y a plus besoin d’avoir un ensemble de compétences techniques spéciales », a déclaré à CNBC David Fairman, directeur de la sécurité de la société de cybersécurité, NetSkope.
La société d’ingénierie britannique Arup a confirmé plus tard qu’il était victime de l’attaque.
« Comme de nombreuses autres sociétés du monde, notre entreprise est soumise à des attaques régulières telles que la fraude à la facture, la fraude au phishing, l’usurpation de la voix de WhatsApp et Deepfakes », a déclaré le CIO Rob Greig de l’Arup dans un communiqué. « Il s’agit d’un problème d’industrie, d’entreprise et sociale et nous espérons que notre expérience contribuera à faire connaître le raffinement des mauvais acteurs et le nombre croissant de technologies en évolution. »
Menaces continues
Le Centre financier de Deloitte a récemment mis l’accent sur la question, affirmant: « La génération de l’IA devrait augmenter considérablement la menace de fraude qui pourrait coûter aux banques et à leurs clients jusqu’à 40 milliards de dollars d’ici 2027. »
Chiu a déclaré que l’incident de Hong Kong « découle un monde où la fintech traverse la capacité de vraiment faire confiance et de vérifier la réalité, un système de confiance sur lequel dépend de ce sur quoi le fintech s’appuie.
Bien sûr, cela offre des opportunités aux entreprises qui peuvent trouver une solution efficace à ce problème, mais « mais ce n’est pas encore une situation résolue », a déclaré Chiu. « C’est donc ce que je garde un œil … même si vous êtes en dehors de la fintech. »
Cette histoire a été initialement présentée sur Fortune.com.