Nous n’aurions pas pensé devoir accompagner la directrice générale France d’une entreprise cliente dans cette situation. Michèle Hallak, directrice générale France de Feedzai a été la cible d’une tentative d’arnaque au Président utilisant le deepfake généré par IA.
Que s’est-il passé, comment avons nous rebondi sur cette histoire pour faire une opération de communication débouchant sur un témoignage dans une émission de la première radio de France. On vous raconte tout.
IA, Deepfake et arnaque.
Le travail que nous faisons pour Feedzai couvre habituellement son activité et rentre dans une stratégie de notoriété et de relations avec la presse. Feedzai est une entreprise de la fintech qui propose ses services aux institutions financières pour les aider, par le biais de l’utilisation de programmes IA, à détecter et prévenir la fraude en temps réel. Feedzai aide aussi ces mêmes institutions à garder des activités conformes aux lois et réglementations nationales et internationales. Par exemple, les services de Feedzai contribuent à identifier le blanchiment d’argent et le crime organisé.
Pourtant, ce sont d’autres programmes intelligents, d’autres IA qui vont être utilisés dans le cadre d’une tentative d’arnaque ciblant cette entreprise de la fintech.
Qu’est ce que le deepfake ?
Le deepfake est une technologie basée sur l’intelligence artificielle qui permet de modifier ou de générer des images, des vidéos ou des sons de manière hyperréaliste, en remplaçant un visage ou une voix par un autre. Le terme vient de la contraction de “deep learning” (apprentissage profond) et “fake” (faux).
Comment ça fonctionne ?
Le deepfake repose principalement sur des algorithmes d’apprentissage profond, notamment les réseaux de neurones comme les GANs (Generative Adversarial Networks) :
- Un réseau (le générateur) crée une image modifiée.
- Un autre réseau (le discriminateur) évalue si cette image est réaliste ou non.
- Les deux réseaux s’améliorent mutuellement à travers un processus d’apprentissage itératif, jusqu’à ce que l’image ou la vidéo générée soit presque indiscernable de la réalité.
Ces programmes sont souvent utilisés dans des applications tout à fait légales. Le cinéma y fait de plus en plus appel pour réutiliser le visage d’un acteur, pour rajeunir ou modifier une scène sans avoir besoin de demander à l’artiste de revenir en plateau.
Ils peuvent aussi apprendre à simuler une voix de manière très convaincante.
Mais ces techniques sont aussi utilisées en cybercriminalité et désinformation. Les escrocs y ont recours dans le cadre d’arnaque d’usurpation d’identité, de création de fake news ou de manipulation d’opinion.
Arnaquer une fintech spécialisée dans la lutte contre les arnaques ?
Eté 2024. Michèle Hallak reçoit un message WhatsApp d’un interlocuteur qui semble être son CEO avec un lien vers un canal de visio-conférence. Lors de celle-ci, elle voit à l’écran le visage du CEO de Feedzai. Le visage est animé, parle mais elle n’a pas le son. Elle reçoit ensuite un message vocal. La voix de son boss lui demande de préparer un transfert financier dans le cadre d’un audit.
Le problème, c’est que ce n’est pas Nuno Sebastiao qui l’a contactée mais des arnaqueurs qui ont eu recours à des programmes IA pour contrefaire – du mieux possible – l’identité du chef d’entreprise.
L’arnaque est vite découverte : Mme Hallak ne comprend pas pourquoi ces contacts et conversations ne sont pas faites par le biais des canaux internes à l’entreprise. Et puis, cette voix, ce visage ? Quelque chose ne marche pas. La cible des arnaqueurs est tout de même la directrice générale d’une entreprise dont le cœur de métier est la détection des fraudes et arnaques financières.
Au final, l’arnaque tourne court.
Du fait divers à France Inter, l’expertise de StoriesOut
Chez StoriesOut, nous apprenons cette histoire peu commune au travers des échanges hebdomadaires avec notre client. Très vite, l’idée germe de proposer ce sujet sous forme de pitch à nos contacts au sein des médias spécialisés ou généralistes. La communication de Feedzai est plutôt orientée BtoB mais l’histoire d’une tentative d’arnaque ratée visant une fintech pourrait intéresser.
Et c’est le cas : Anaëlle Verzaux, journaliste à France Inter, travaille sur un sujet axé sur l’utilisation croissante pour des cyber arnaques des IA et des possibilités que ces outils informatiques offrent. Notre pitch attire son attention et la directrice générale de Feedzai en vient à partager son expérience de cyber-arnaque dans l’émission Interception, le magazine “grand reportage” de la première radio de France.
Conclusion.
Tout est bien qui finit bien ? Peut-être pas : l’entreprise qui nous emploie a quand même été visée par une tentative sophistiquée d’arnaque financière. Mais en définitive, ce fait divers a trouvé sa place – positive – dans la présence médiatique de Feedzai.
Et a renforcé, nous l’espérons, sa crédibilité dans le domaine sensible de la protection des institutions financières face aux fraudes et arnaques en tout genre, y compris celles recourant à l’utilisation de fonctions IA.
Pour aller plus loin.
Le sujet des cyber arnaques traité par France Inter dans le cadre de son émission Interception vaut la peine de s’y intéresser. Nous l’avons donc intégré directement dans cet article. Vous pouvez aussi visiter la page consacré à Interception pour l’écouter en podcast, voire vous y abonner.