Les entreprises font face à une menace croissante de la part des employés utilisant des outils avancés d'IA pour créer de faux reçus de dépenses réalistes. Les plateformes de gestion des dépenses signalent une forte augmentation de telles tentatives de fraude depuis le lancement de modèles améliorés de génération d'images. Les entreprises s'appuient désormais sur des systèmes de détection d'IA pour contrer la tromperie.
L'émergence de modèles sophistiqués d'IA de génération d'images de sociétés comme OpenAI et Google a facilité la soumission de rapports de dépenses frauduleux par les employés. Selon le fournisseur de logiciels de dépenses AppZen, les faux reçus générés par l'IA ont représenté environ 14 % des tentatives de fraude en septembre, contre aucun l'année précédente. La société fintech Ramp a signalé avoir détecté plus d'un million de dollars de factures frauduleuses en 90 jours grâce à son nouveau logiciel.
Une enquête menée par la plateforme de gestion des dépenses Medius a révélé que 30 % des professionnels financiers aux États-Unis et au Royaume-Uni ont observé une augmentation des reçus falsifiés après la sortie de GPT-4o d'OpenAI l'année dernière. La tendance s'est accélérée après qu'OpenAI a lancé un modèle amélioré de génération d'images pour GPT-4o en mars. « Ces reçus sont devenus si bons que nous disons à nos clients : 'ne faites pas confiance à vos yeux' », a déclaré Chris Juneau, vice-président senior et responsable du marketing produit chez SAP Concur, qui effectue plus de 80 millions de contrôles de conformité alimentés par l'IA chaque mois.
Auparavant, la création de documents falsifiés nécessitait des compétences en retouche photo ou des services payants, mais désormais, les chatbots d'IA gratuits permettent aux utilisateurs de générer des reçus convaincants en quelques secondes via des invites textuelles simples. Les exemples partagés par les plateformes montrent des images avec des plis réalistes, des itemisations détaillées de menus correspondant à de vrais établissements, et même des signatures. OpenAI a déclaré qu'elle agit contre les violations de politique et inclut des métadonnées dans ses images indiquant une création par ChatGPT.
« Ce n'est pas une menace future ; cela se produit déjà. Bien que actuellement seulement un petit pourcentage de reçus non conformes soient générés par l'IA, cela ne fera que croître », a averti Sebastien Marchon, PDG de Rydoo. Pour contrer cela, des plateformes comme Ramp et SAP Concur utilisent l'IA pour analyser les métadonnées des images à la recherche d'origines IA — bien que les utilisateurs puissent contourner cela en photographiant ou en capturant l'écran des images. La détection implique également la vérification de détails contextuels, tels que des noms de serveurs répétés ou des horodatages, et les données de voyage des employés.
« La technologie peut examiner tout avec un haut niveau de détail, de focus et d'attention que les humains, après un certain temps, laissent passer des choses, ils sont humains », a noté Calvin Lee, directeur senior de la gestion de produits chez Ramp. Une étude SAP de juillet a révélé que près de 70 % des directeurs financiers soupçonnent les employés d'utiliser l'IA pour falsifier les dépenses de voyage ou les reçus, 10 % étant certains que cela s'est produit. Mason Wilder, directeur de recherche à l'Association of Certified Fraud Examiners, a décrit les faux reçus générés par l'IA comme un « problème significatif pour les organisations », ajoutant : « Il n'y a aucune barrière à l'entrée pour les gens pour faire cela. Vous n'avez besoin d'aucune compétence ou aptitude technologique comme vous en auriez peut-être eu besoin il y a cinq ans avec Photoshop. »