L’amélioration continue de la technologie générique de l’intelligence artificielle (Genai) est devenue une arme aux mains de criminels essayant de faire des individus frauduleux de l’argent ou de l’identité
En savoir plus
Les entreprises technologiques combattent la tendance Deepfake. Deepfake est une voix et une vidéo louables exploitées par des fraudeurs plus largement utilisés que jamais pour l’intelligence artificielle.
L’amélioration continue de la technologie de l’intelligence artificielle (Genai) est devenue une arme aux mains de criminels essayant de concevoir des individus de l’argent ou de l’identité.
Debbie Bodkin a déclaré que sa mère de 93 ans était au téléphone.
Lorsqu’on lui a demandé où ils étaient, l’usurpation de l’usurpation automatique a été nommée l’hôpital.
Heureusement, c’est ma petite-fille qui a répondu à l’appel.
« Ce n’est pas la première fois qu’un escroc le appelle une grand-mère », a déclaré Bodkin à l’AFP. « Tous les jours. »
L’arnaque téléphonique de Deepfake oblige généralement les victimes à payer pour un traitement ou d’autres circonstances manufacturées.
Deepfakes sont également utilisés par les gangs criminels sur les réseaux sociaux pour voler des célébrités célèbres et d’autres personnes célèbres, et pour une désinformation.
Les autorités de Hong Kong ont révélé plus tôt cette année que des employés de sociétés multinationales avaient été amenés à envoyer 200 millions de dollars (environ 26 millions de dollars) à un escroc qui a organisé une vidéo avec un autre avatar de l’IA.
Une récente enquête menée par le démarrage d’identification IBOOM a montré qu’environ 10% des Américains et des Britanniques étaient en mesure d’identifier avec précision les images et les vidéos DeepFake.
Selon Vijay Balasubramaniyan, PDG de Pindrop Security, il y a 10 ans, il y avait un seul outil d’IA pour générer des voix synthétiques.
Genai a changé le jeu, a-t-il déclaré.
« Auparavant, il m’a fallu 20 heures pour recréer ma voix », a déclaré l’exécutif à l’AFP.
« C’est maintenant cinq secondes. »
Des entreprises telles que Intel ont intensifié leurs outils pour détecter l’audio et la vidéo de Genai en temps réel.
Le « Fakecatcher » d’Intel détecte les changements de couleur dans les vaisseaux sanguins en face pour distinguer les images réelles et fausses.
Pindrop décompose l’audio chaque seconde et le compare aux caractéristiques de la voix humaine.
« Nous devons suivre le Times », explique Nicos Vekiarides, chef de la plate-forme Attestiv, spécialisée dans la certification de la création numérique.
« Au départ, nous avons vu quelqu’un tenir six doigts dans une main, mais les progrès sont devenus de plus en plus difficiles à transmettre (Deepfark) à l’œil nu. »
« La menace de la cybersécurité mondiale »
Balasubramaniyan pense que les logiciels pour découvrir le contenu de l’IA deviendront la norme dans tous les types d’entreprises.
Alors que Genai brouille les frontières entre les humains et les machines, les entreprises qui rétablissent la division pourraient monter sur un marché d’une valeur de milliards de dollars, a-t-il déclaré.
Vekiarides a averti que le problème devient de plus en plus une menace mondiale de cybersécurité « .
« La réputation de toute entreprise peut être blessée par Deepfakes ou ciblée par ces attaques sophistiquées », explique Vekiarides.
Balasubramaniyan a ajouté que la transition vers le télétravail offrira davantage d’opportunités aux mauvais acteurs à usurper les entreprises.
Au-delà du monde de l’entreprise, beaucoup espèrent trouver des moyens de lutter contre la fraude profonde qui met leur vie en danger.
En janvier, Honor, basé en Chine, a dévoilé un smartphone Magic7 avec un détecteur FAKI profondément alimenté en AI.
La startup britannique Surf Security a lancé un navigateur Web qui peut signaler audio et vidéo synthétiques à la fin de l’année dernière, ciblant les entreprises.
Siwei Lyu, professeur d’informatique à l’Université de Buffalo à l’Université d’État de New York, estime que « Deepfakes devient comme un spam ».
« Ces algorithmes de détection ressembleront à des filtres de spam dans le logiciel de messagerie », a prédit Lyu.
« Nous n’y sommes pas encore. »