Actu

États-Unis : une IA utilisée pour simuler une tentative d’enlèvement

14 avril 2023
Par Kesso Diallo
Les malfaiteurs ont demandé une rançon de 50 000 dollars.
Les malfaiteurs ont demandé une rançon de 50 000 dollars. ©LuckyStep / Shutterstock

Des malfaiteurs ont tenté d’arnaquer une mère à l’aide d’une voix générée par l’intelligence artificielle identique à celle de sa fille de 15 ans.

Une terrifiante escroquerie téléphonique. En Arizona, des malfaiteurs sont parvenus à cloner la voix d’une adolescente à l’aide de l’intelligence artificielle (IA) pour faire croire à sa mère qu’elle avait été enlevée. Comme l’a raconté Jennifer DeStefano à NBC, elle a reçu un appel d’un numéro de téléphone inconnu alors que sa fille était sur les pistes de ski. Craignant un potentiel accident, elle a décroché et entendu la voix de sa fille qui était en pleurs, puis la voix d’un homme.

« Écoutez-moi bien. J’ai votre fille. Voilà comment ça va se passer. Si vous appelez la police ou n’importe qui, je la drogue. Je vais faire ce qui me chante et l’emmener au Mexique », lui a-t-il expliqué, avec la fausse voix de sa fille derrière qui hurlait « Aide-moi maman. S’il te plaît, aide-moi. Aide-moi ». L’homme au téléphone lui a ensuite demandé une rançon d’un million de dollars puis de 50 000 dollars lorsqu’elle lui a dit qu’elle ne disposait pas d’une telle somme.

Des appels frauduleux quotidiens

La mère a rapidement su que sa fille n’avait pas été enlevée. Lors de cet appel, elle était dans le studio de son autre fille avec d’autres mères. L’une d’elles a appelé le 911 – numéro d’appel d’urgence aux États-Unis – tandis qu’une autre a appelé son mari. En l’espace de quatre minutes, ils ont confirmé que sa fille était en sécurité. La mère a tout de même été choquée par la ressemblance de la fausse voix avec celle de sa fille : « C’était complètement sa voix. C’était son intonation. C’était la façon dont elle aurait pleuré », a-t-elle déclaré au média américain.

Selon Dan Mayo, agent spécial adjoint en charge du bureau du FBI à Phoenix, les appels frauduleux concernant une urgence familiale ou un faux enlèvement à l’aide de l’IA « se produisent quotidiennement », mais ce n’est pas tout le monde qui les signale. Si auparavant, le prélèvement d’un grand nombre d’échantillons de la voix d’une personne était nécessaire pour la cloner, il suffit, aujourd’hui, de trois secondes de la voix en question pour y parvenir. Cela, grâce à des outils comme VALL-E de Microsoft qui est capable d’imiter n’importe quelle voix en entendant seulement une phrase.

À lire aussi

Article rédigé par
Kesso Diallo
Kesso Diallo
Journaliste
Pour aller plus loin