Las Vegas, 22 mars – Les entreprises technologiques combattent la voix, la vidéo et la tragédie profonde apparemment réalistes utilisées par les escrocs, plus disponibles que jamais grâce à l’intelligence artificielle.
L’amélioration continue de la génération d’outils d’intelligence artificielle (Genai) est devenue des armes aux mains de mauvais acteurs, dans le but des salauds visant à bannir les gens de leur argent et de leur identité.
Debbie Bodkin a déclaré que sa mère de 93 ans était au téléphone.
Lorsqu’on lui a demandé où ils étaient, l’usurpation de l’usurpation automatique a été nommée l’hôpital.
Heureusement, c’est ma petite-fille qui a répondu à l’appel.
« Ce n’est pas la première fois qu’un escroc le appelle une grand-mère », a déclaré Bodkin à l’AFP. « Tous les jours. »
De telles escroqueries par téléphone DeepFake entraînent généralement des victimes cajolées et payant des urgences médicales et autres.
Il est utilisé sur les réseaux sociaux pour détourner les tristement célèbres noms des célébrités et autres personnalités bien connues.
Plus tôt cette année, la police de Hong Kong a révélé que les employés de sociétés multinationales avaient été trompés par un fil de 200 millions de dollars par un escroc qui a organisé une conférence vidéo avec un collègue AI Avatar.
Une étude récente de la startup d’identification Iboom a révélé que seul un dixième d’Américains et des Britanniques pouvait communiquer correctement que leurs photos et vidéos sont des fesses profondes.
Selon Vijay Balasubramaniyan, PDG de Pindrop Security, il y a 10 ans, il y avait un seul outil d’IA pour générer des voix synthétiques.
Genai a changé le jeu, a-t-il déclaré.
« Auparavant, il m’a fallu 20 heures pour recréer ma voix », a déclaré l’exécutif à l’AFP.
« C’est maintenant cinq secondes. »
Des entreprises telles que Intel ont intensifié leurs outils pour détecter l’audio et la vidéo de Genai en temps réel.
Le « Fakecatcher » d’Intel détecte les changements de couleur dans les vaisseaux sanguins en face pour distinguer les images réelles et fausses.
Pindrop décompose l’audio chaque seconde et le compare aux caractéristiques de la voix humaine.
« Nous devons suivre le Times », explique Nicos Vekiarides, chef de la plate-forme Attestiv, spécialisée dans la certification de la création numérique.
« Au départ, nous avons vu quelqu’un tenir six doigts dans une main, mais les progrès sont devenus de plus en plus difficiles à transmettre (Deepfark) à l’œil nu. »
« La menace de la cybersécurité mondiale »
Balasubramaniyan pense que les logiciels pour découvrir le contenu de l’IA deviendront la norme dans tous les types d’entreprises.
Alors que Genai brouille les frontières entre les humains et les machines, les entreprises qui rétablissent la division pourraient monter sur un marché d’une valeur de milliards de dollars, a-t-il déclaré.
Vekiarides a averti que le problème devient de plus en plus une menace mondiale de cybersécurité « .
« La réputation de toute entreprise peut être blessée par Deepfakes ou ciblée par ces attaques sophistiquées », explique Vekiarides.
Balasubramaniyan a ajouté que la transition vers le télétravail offrira davantage d’opportunités aux mauvais acteurs à usurper les entreprises.
Au-delà du monde de l’entreprise, beaucoup espèrent trouver des moyens de lutter contre la fraude profonde qui met leur vie en danger.
En janvier, Honor, basé en Chine, a dévoilé un smartphone Magic7 avec un détecteur FAKI profondément alimenté en AI.
La startup britannique Surf Security a lancé un navigateur Web qui peut signaler audio et vidéo synthétiques à la fin de l’année dernière, ciblant les entreprises.
Siwei Lyu, professeur d’informatique à l’Université de Buffalo à l’Université d’État de New York, estime que « Deepfakes devient comme un spam ».
« Ces algorithmes de détection ressembleront à des filtres de spam dans le logiciel de messagerie », a prédit Lyu.
« Nous n’y sommes pas encore. »