Ce mois-ci, Chatgpt a dévoilé un nouveau générateur d’images dans le cadre de son modèle 4O qui est beaucoup de génération de texte à l’intérieur d’images.
Les gens l’utilisent déjà pour générer de faux reçus de restaurants, ajoutant potentiel un autre outil à la boîte à outils déjà étendue de l’IA Deepfakes utilisé par les fraudeurs.
Poster prolifique des médias sociaux et VC Deedy Das ont posté sur XA Photo d’un faux reçu pour un (vrai) steakhouse de San Francisco qui, selon lui, a été créé avec 4O.
D’autres ont pu reproduire des résultats similaires, dont un avec des taches de nourriture ou des boissons pour le rendre encore plus authentique:
L’exemple le plus réel que TechCrunch a trouvé était récemment depuis la France, où une mise à jour de LinkedIn a publié un reçu généré par l’IA froissé pour une chaîne de restaurants locale:

TechCrunch a testé 4O et a également pu générer un faux reçu pour un Applebee à San Francisco:

Mais pour une tentative, il y avait quelques cadeaux morts qu’il a été truqué. D’une part, le total utilise un ord dans au lieu d’une période. D’autre part, les mathématiques ne s’additionnent pas. Les LLM ont toujours du mal à faire des mathématiques de base, donc ce n’est pas particulièrement surprenant.
Mais il ne serait pas difficile pour un fraudeur de réparer rapidement quelques-uns des chiffres avec un logiciel de retouche photo ou, plus possible, plus d’invites.
Il est clair que la facilité de génération de faux reçus présente d’énormes opportunités de fraude. Il ne serait pas difficile d’imaginer ce type de technologie utilisé par les mauvais acteurs pour être «remboursé» pour des dépenses entièrement fausses.
Le porte-parole d’Openai, Taya Christianson, a déclaré à TechCrunch que de ses images incluent des métadonnées indiquant qu’elles avaient été fabriquées par Chatgpt. Christianson a ajouté qu’Openai «prend des mesures» lorsque les utilisateurs violent sa police d’utilisation, et c’est «toujours apprendre» de l’utilisation et des commentaires du monde réel.
TechCrunch a ensuite demandé pourquoi Chatgpt permet aux gens de générer de faux reçus en premier lieu, et quand il s’agit d’une ligne avec l’utilisation des politiques d’Openai (qui interdire la fraude.)
Christianson a reconnu que «l’objectif d’Openai est de donner aux utilisateurs autant de liberté de création que possible» et que les fausses recettes d’IA pourraient être utilisées dans des situations non fraudues comme «enseigner aux gens la littératie financière» ainsi que la création d’annonces d’art et de produits originales.