Quand l’IA devient une arme de tromperie
10 mins read

Quand l’IA devient une arme de tromperie


Table des matières

Imaginez recevoir un appel vidéo urgent de votre PDG vous demandant de transférer des fonds vers un compte étranger. Sa voix, ses expressions faciales et même ses tics de langage semblent parfaitement authentiques. Il s’agit cependant d’une arnaque développée grâce à une technologie d’intelligence artificielle (IA) appelée faux profond. Ce type d’attaque, en plein essor depuis 2019, représente l’une des menaces les plus sournoises et sophistiquées en matière de cybersécurité.


L’évolution des Deepfakes : de l’expérimentation à l’arme de la fraude

Avant 2019 : les premières briques technologiques

Pour comprendre la menace, il faut remonter à ses origines. En 2014, la publication de l’article scientifique sur Les deux (S’opposer aux réseaux génératifs) a posé les bases de la génération d’images de synthèse de plus en plus réalistes. En 2016, mise en ligne sur Github du projet Face2Visage a permis d’expérimenter la manipulation de visages quasiment en temps réel.
Vers 2017les premiers Deepfakes sont apparus, principalement utilisés pour créer des vidéos humoristiques ou des effets spéciaux, encore loin des usages malveillants que l’on observe aujourd’hui.

2019-2023 : l’ère de l’émergence

Depuis 2019on voit les premiers abus : fausses déclarations des politiques, porno de vengeancefraude financière rudimentaire, etc. En parallèle, la technologie Deepfake se démocratise. L’émergence de les robots Sur Telegram et les plateformes en ligne, on génère désormais des vidéos ou des enregistrements à partir de simples échantillons sonores ou visuels, rendant ces outils accessibles à un large public sans compétences techniques avancées.

Au fil des années 2020 et 2021Les cas médiatisés de deepfakes de célébrités (acteurs, chefs d’État, PDG) ont mis en évidence la facilité avec laquelle l’opinion publique peut être trompée. Les comptes Tiktok parodiant des personnalités comme Tom Cruise ont montré que même une utilisation divertissement Peut semer le doute sur l’authenticité du contenu.

2023-2025 : l’ère de l’industrialisation

Avec l’arrivée d’outils publics grand public comme Laboratoire DeepFace ou Wav2lipmême les non-experts peuvent générer des deepfakes en quelques clics. Parallèlement, sur les forums clandestins et les places de marché du Dark Web, les services « clés en main » se multiplient. Selon une enquête de Check Point Research, il serait possible de commander une vidéo de 30 secondes imitant un manager pour environ 500 €.

En 2024 et 2025, nous assistions à un industrialisation Deepfakes : des groupes criminels se spécialisent dans la fraude par usurpation d’identité visuelle et vocale, ciblant principalement entreprises et organisations politiques. Les techniques de détection, bien que de plus en plus efficaces, peinent à suivre la vitesse des avancées technologiques.

Exemple concret : fraude au PDG

Un cas inhabituel de fraude au PDG utilisait un audio Deepfake, généré par l’intelligence artificielle (IA), et aurait extorqué 243 000 $ US à une entreprise énergétique basée au Royaume-Uni. Selon un rapport de Journal de Wall StreetLes fraudeurs ont utilisé un logiciel de génération vocale d’IA pour imiter la voix du dirigeant de la société mère allemande et ainsi faciliter un transfert illégal de fonds.

Les cybercriminels ont appelé le PDG de la filiale britannique en prétendant être le PDG de la société mère. Ils ont exigé un transfert en urgence vers un fournisseur basé en Hongrie, assurant au dirigeant britannique un remboursement ultérieur. Après l’exécution du transfert, l’argent était transféré sur un compte au Mexique puis envoyé vers d’autres destinations, rendant plus complexe l’identification des fraudeurs.

Les malfaiteurs sont alors rappelés pour demander un second transfert, affirmant que le premier avait déjà été remboursé. Constatant que le remboursement n’était pas efficace, le PDG britannique a refusé. Lors d’un troisième appel, les escrocs ont renouvelé leur demande, mais le soupçon était déjà installé, d’autant que l’appel provenait cette fois d’une émission autrichienne.


Plongée dans les coulisses technologiques

Comment fonctionne un Deepfake ?

Le processus est basé sur Réseaux de neurones antagonistes (GAN). Imaginez un faussaire (le générateur) qui crée une imitation, et un détective (le discriminateur) qui tente de le démasquer. En s’entraînant, le faussaire devient si habile que même le détective se trompe.

Étapes clés :

  1. Collecte de données : Photos, vidéos ou enregistrements cibles (souvent issus de LinkedIn, de conférences YouTube ou de podcasts).

  2. Formation sur modèle : L’IA étudie les expressions, le ton vocal et même les pauses respiratoires.

  3. Génération : Création de contenus falsifiés synchronisés avec les mouvements et le contexte souhaités.

CAS BÉTON : En 2024, le Dr Michel Cymès, médecin et animateur très populaire en France, a récemment attaqué Meta en justice après la diffusion de publicités frauduleuses utilisant son image grâce à Deepfakes. Les fraudeurs, ciblant souvent un public plus âgé, détournent l’image des « médecins de la télévision ¯ » pour promouvoir et faire de la publicité pour de faux remèdes et médicaments.

De la même manière, la Britannique Hilary Jones a vu son visage et sa voix réutilisés pour promouvoir de faux remèdes contre l’hypertension ou des squames dans le chanvre €¯ : « Par € lorsque ces publicités sont supprimées, elles réapparaissent le lendemain sous d’autres noms €¯ », regrette-t-il dans une interview.

De nos jours, ces technologies sont disponibles et accessibles au grand public. Sachez que pour moins que le prix d’un café au lait et en moins de 10 minutes, les escrocs peuvent créer des vidéos faux profond Étonnamment convaincant.


Pourquoi le Deepfake Phishing est-il une bombe à retardement ?

Les deepfakes ne sont plus une technologie futuriste, mais une réalité quotidienne. Voici ce que l’enquête de McAfee a démontré :

  • 59 % des personnes dans le monde connaissent quelqu’un qui a été victime d’une arnaque en ligne, et ce chiffre monte à 77 % chez les 18-24 ans.
  • Les escrocs misent sur la rapidité : 64 % des escroqueries entraînent une perte financière ou un vol de données personnelles en une heure.
  • Aux pertes monétaires s’ajoutent la détresse émotionnelle, 35 % des victimes subissant un stress important.

Le deepfake n’est pas une technique ordinaire d’ingénierie sociale, et cela en raison des facteurs suivants :

La trahison des sens humains

Notre cerveau est programmé pour faire confiance à ce qu’il voit et entend. Une étude duUniversité de Stanford montre qu’un deepfake bien exécuté trompe 92 % des personnes non informées.

L’effet de “bulle de confiance”

Les attaques ciblent souvent les employés ayant un accès limité aux décideurs. Une assistante de direction recevant une « demande urgente » du PDG via Teams aura moins de réflexes de vérification qu’avec un email.

La course contre la détection

Des outils de détection (comme Authentificateur vidéo Microsoft) Rechercher des anomalies – pixels asymétriques, synchronisation labiale imparfaite. Mais les Deepfakes de dernière génération intègrent désormais micro-expressions et des imperfections réalistes (toux, hésitations).


Arsenal de défense : des stratégies concrètes pour les entreprises et les particuliers

Pour les organisations

Pour les particuliers

  • Vérification systématique :

    • Face à une demande étrange, raccrochez et rappelez le numéro officiel de la personne.

    • Posez une question personnelle que seule la personne réelle connaît (« Comment s’appelait notre professeur de CM2 ? »).

  • Hygiène numérique :

    • Limitez les publications vocales (podcasts, messages vocaux publics).

    • Exploiter efficacement les paramètres de confidentialité sur les réseaux sociaux.

  • Outils grand public : Des services comme « Deepware scanner » et « Resect Detect » qui analysent les fichiers multimédia pour détecter les Deepfakes.


Et vous dans tout ça ?

À mon avis, la défense contre les Deepfakes ne repose pas seulement sur la technologie, mais sur un culture collective de méfiance saine. Chaque fois que vous recevez une demande impure, prenez 5 minutes pour :

  1. Respirer ! Puisque ce type d’attaques se concentre sur les précipitations.

  2. Vérifier ! Deux chaînes, une question piège.

  3. Signaux ! Même en cas de doute, alertez votre service de sécurité informatique.

J’ai choisi d’écrire cet article car vous, internautes, travaillez déjà dans de grandes entreprises ou en ferez très prochainement partie. Avec l’émergence de cette menace, vous serez sûrement mis face à face, même si vous n’êtes pas directement visé : quelqu’un de votre entourage le sera. Au moins, vous saurez désormais quoi faire.


Question pour vous : Si vous deviez créer un « mot de passe humain » avec un proche (une phrase ou un souvenir impossible à deviner pour une IA), quel serait-il ? Partagez vos idées pour inspirer la communauté !





Hosting

Leave a Reply

Your email address will not be published. Required fields are marked *