L’Asie du Sud-Est est devenue l’épicentre mondial de la cyber fraude, où la fraude technologique rencontre la traite des êtres humains. Dans des pays comme le Cambodge et le Myanmar, les syndicats de crime exploitent des « magasins de porc » à l’échelle industrielle avec des travailleurs trafiqués forcés d’être tués sur des marchés riches tels que Singapour et Hong Kong.
L’échelle est incroyable. L’une des Nations Unies estime les pertes mondiales de ces régimes à 37 milliards de dollars. Et cela peut aller pire bientôt.
L’essor de la cybercriminalité dans la région a déjà affecté la politique et la politique. La Thaïlande a signalé une baisse des visiteurs chinois cette année après que les acteurs chinois ont été attirés et forcés de travailler pour des composés de fraude basés au Myanmar. Bangkok a actuellement du mal à convaincre les touristes qu’il est sûr de venir. Et Singapour a adopté une loi anti-SCAM qui permet aux forces de l’ordre de geler les comptes bancaires pour les victimes de fraude.
Mais pourquoi l’Asie est-elle notoire pour sa cybercriminalité? Ben Goodman, directeur général de la région Asie-Pacifique à Octa, note que la région offre une dynamique unique qui facilite la fraude à la cybercriminalité. Par exemple, cette région est un «premier marché mobile». Les plateformes de messagerie mobile populaires comme WhatsApp, Line et WeChat aident à promouvoir les connexions directes entre les escrocs et les victimes.
L’IA aide également les escrocs à surmonter la diversité des langues asiatiques. Goodman dit que la traduction des machines est un « cas d’utilisation merveilleux pour l’IA », mais « cela permet aux gens de cliquer plus facilement sur le mauvais lien ou d’approuver quelque chose ».
Les États-nations sont également impliqués. Goodman souligne également les allégations selon lesquelles la Corée du Nord utilise de faux employés de grandes entreprises technologiques pour collecter des informations et obtient beaucoup d’argent nécessaire dans les pays isolés.
Nouveau risque: « Shadow » AI
Goodman s’inquiète des nouveaux risques liés à l’IA sur le lieu de travail. L’IA « Shadow » ou les employés utilisent des comptes personnels pour accéder aux modèles d’IA sans surveillance. « Ce pourrait être quelqu’un qui prépare une présentation pour une revue d’entreprise, entre à chatte avec son propre compte personnel et génère des images », explique-t-il.
Cela pourrait télécharger inconsciemment des informations sensibles aux plateformes d’IA publiques, créant « beaucoup de risques concernant la fuite d’informations ».

Avec l’aimable autorisation d’Octa
L’agent AI peut également brouiller les frontières entre l’identité personnelle et professionnelle. Par exemple, il est lié aux e-mails personnels, par opposition aux e-mails d’entreprise. « En tant qu’utilisateur d’entreprise, mon entreprise me fournit l’application que j’utilise. Ils veulent gérer la façon dont je l’utilise », explique-t-il.
Cependant, ajoute-t-il: « Je n’utiliserai pas mon profil personnel pour les services d’entreprise, je n’utiliserai pas le profil de mon entreprise pour les services personnels. » « La possibilité de dépeindre qui vous êtes, que vous utilisiez des services de travail ou de travail, que vous utilisiez ou non votre service personnalisé, est de savoir comment vous pensez à l’identité de votre client et à l’identité d’entreprise. »
Et pour Goodman, c’est là que les choses se compliquent. Les agents de l’IA sont autorisés à prendre des décisions en votre nom. Cela signifie qu’il est important de définir si les utilisateurs agissent sur leurs capacités individuelles ou sur les capacités de l’entreprise.
« Si votre identité humaine est volée, le rayon d’explosion sera beaucoup plus important en termes de ce que vous pouvez faire pour vous voler de l’argent ou pour gâcher votre réputation », prévient Goodman.