"Maman, des types m’ont enlevée" : les deepfake vocaux, nouveau type d'arnaque aux États-Unis

par Hamza HIZZIR | Reportage TF1 Charles Diwo, Séverine Fortin, Benoît Christal
Publié le 8 février 2024 à 11h22

Source : JT 20h Semaine

Le deepfake est une usurpation du visage et/ou de la voix de quelqu'un grâce à l'intelligence artificielle.
Aux États-Unis, un nouveau type d'arnaque a vu le jour.
En détournant la voix d'un enfant, des escrocs simulent un enlèvement pour soutirer de l'argent à la famille.

Il paraît qu’on n’arrête pas le progrès. Il faut donc désormais redoubler de vigilance face à ceux qui détournent les nouvelles technologies à des fins malhonnêtes. C’est, par exemple, le cas de l’intelligence artificielle (IA) qui, bien que toujours en phase de développement, est déjà devenue un important vecteur d’escroquerie, comme le montre le reportage du 20H de TF1 ci-dessus. En cause : le deepfake, terme désignant une usurpation du visage et/ou de la voix de quelqu'un. Une arnaque très en vogue, notamment aux États-Unis.

Jennifer DeStefano, interrogée en visio dans notre vidéo, peut en témoigner. Cette mère de famille résidant à Scottsdale, en Arizona, a reçu, il y a quelques mois, un terrifiant coup de téléphone, alors que sa fille se trouvait en vacances au ski. "Écoutez-moi bien. J’ai votre fille. Si vous appelez la police ou n’importe qui, je la drogue. Je vais faire ce qui me chante et l’emmener au Mexique", a-t-elle entendu après avoir décroché, avec en fond sonore, des hurlements de sa fille. "J’ai entendu la voix de ma fille qui pleurait, qui sanglotait, qui me disait ‘maman’, alors je me suis demandé qu’est-ce qui se passe ? Elle disait ‘maman, des types m’ont enlevée, aide-moi'", se souvient-elle dans le reportage de TF1.

Mais la maman a eu le bon réflexe, en appelant aussitôt l’adolescente sur son téléphone, pour constater qu’elle était bien en sécurité. "C’était complètement sa voix. C’était son intonation. C’était la façon dont elle aurait pleuré", a ensuite raconté Jennifer DeStefano à la chaîne NBC, qui citait aussi Dan Mayo, agent spécial adjoint en charge du bureau du FBI à Phoenix, selon lequel ces faux enlèvements à l’aide de l’IA "se produisent quotidiennement". La faute, notamment, à des applications comme VALL-E de Microsoft, permettant de cloner une voix sur la base d’un seul échantillon de trois secondes. 

Mais bien avant le lancement de celle-ci, en janvier 2023, les kidnappings virtuels se multipliaient déjà outre-Atlantique. On peut, par exemple, citer la mésaventure de la famille Baker, révélée par CNN… en 2019. Les parents avaient alors reçu un appel d’un individu affirmant avoir enlevé leur fils, et ainsi parvenu à leur soutirer 1.500 dollars, via des cartes bancaires prépayées achetées sous contrainte. À la décharge des victimes, dans ce cas, le numéro de leur enfant s’était carrément affiché sur leur écran. Les escrocs avaient utilisé Skype, et sa possibilité de renseigner un numéro de téléphone n’étant pas le sien. Toujours d'après CNN, certains appellent même directement depuis les prisons de Mexico. Hors de portée de la police.


Hamza HIZZIR | Reportage TF1 Charles Diwo, Séverine Fortin, Benoît Christal

Tout
TF1 Info