Voix clonée par IA : de nouvelles arnaques en vue

Voix clonée par IA : de nouvelles arnaques en vue

Toujours imaginatifs et créatifs, des escrocs commencent à exploiter l'intelligence artificielle pour duper leurs victimes en clonant la voix de leurs proches. Une technique inventive qui risque fort de se populariser…

Les avancées technologiques sont incroyables, mais elles entrainent autant de dérives que de bénéfices. Il suffit d'observer les deepfakes – des photos ou des vidéos qui utilisent l'de fausses campagnes de recrutement sur LinkedIn ou encore pour enrichir leurs faux profils sur les sites de rencontre. Cette fois, ce sont les IA génératives de voix – elles sont capables de créer ou de recopier des voix à partir d'une simple description textuelle – qui sont au cœur de nouvelles escroqueries, comme le rapporte le Washington Post. Des outils redoutables, accessibles à tous, faciles d'utilisation et, surtout, très convaincants.

Clonage de voix : l'arnaque à l'urgence familiale dopée à l'IA

Le média américain rapporte plusieurs cas de tentatives – parfois réussies – d'arnaque par clonage de voix. Une Canadienne de 73 ans a failli perdre une somme assez conséquente lorsque des escrocs ont cloné la voix de son petit-fils, soit disant en prison. La femme note le sentiment de peur dans la voix, ce qui achève de la convaincre. Elle se rend donc, avec son mari, dans plusieurs banques pour retirer de l'argent et le libérer. Heureusement, un employé de la seconde banque a rapidement décelé quelque chose de louche, un autre client ayant déjà été ciblé de la même arnaque peu de temps auparavant. Mais tous n'ont pas eu la même chance. Une famille a reçu un appel d'un homme les informant que leur fils de 39 ans venait de tuer un diplomate américain dans un accident de voiture et qu'il fallait réunir des fonds pour le faire sortir de prison. Les parents ont ensuite eu ce qui semblait être leur fils au téléphone, qui leur a confirmé l'histoire. Ils ont donc payé 15 000 dollars aux escrocs, somme qu'ils n'ont plus jamais revue, les arnaqueurs ayant transformé l'argent en bitcoins avant de disparaître dans la nature.

En soi, le procédé n'est pas nouveau. Il s'agit de la classique mais efficace TikTok et que votre voix y figure pendant 30 secondes, les gens peuvent cloner votre voix." 

© DALL-E

Les malfaiteurs utilisent des logiciels de génération de voix comme notre article).

Autour du même sujet

Guide arnaque