L’intelligence artificielle est une fois de plus un outil très utile pour les cybercriminels. Les messages vocaux frauduleux arnaquent les gens en raison de leur haut niveau de crédibilité.
Les cybercriminels utilisent des outils d’intelligence artificielle pour cloner des voix afin de mener de nouveaux types d’attaques. Grâce à un court enregistrement de la voix d’une personne spécifique, celle-ci peut répliquer sa voix puis envoyer des messages vocaux frauduleux ou des messages dans la messagerie vocale. Ils en abusent pour voler de l’argent à la victime. Problématique consacre McAfee.
Résultats ils sortent de la dernière enquête, qui a cartographié la situation avec des attaques frauduleuses par la voix de proches dans 7 pays. Il s’agissait notamment des États-Unis, de la Grande-Bretagne, de l’Australie, de l’Allemagne, de la France, du Japon, mais aussi de l’Inde. Le nombre de répondants était d’environ 7 000.
Les enregistrements vocaux frauduleux sont courants
Enquête de McAfee montre, qu’une personne sur quatre a soit fait l’expérience d’une tentative d’escroquerie par clonage de voix, soit connaît quelqu’un qui a vécu quelque chose de similaire. Les fraudeurs n’ont besoin que de quelques secondes d’un enregistrement de la voix originale d’une personne, et l’intelligence artificielle créera le message souhaité pour eux.
De la recherche aussi ça suit que 70% des gens n’ont pas confiance en leur capacité à distinguer une vraie voix humaine d’une voix générée par l’intelligence artificielle. Les reportages sont souvent très crédibles et se concentrent sur l’imitation de la voix de la famille et des proches de la victime. Ce sont pour la plupart des messages urgents qui demandent à la victime d’envoyer de l’argent immédiatement sous prétexte d’un vol ou d’un accident.
Sur l’efficacité de la fraude il dit également le fait que jusqu’à 77% des personnes interrogées ont immédiatement envoyé de l’argent pour aider des proches présumés après avoir reçu un message frauduleux. Le résultat a été le détournement de sommes souvent plus importantes. Les montants allaient de 500 dollars (environ 464 euros) à des valeurs supérieures à 15 mille dollars (près de 14 mille euros).
Il s’agissait souvent des personnes les plus proches, telles que les conjoints, les parents ou les enfants. Exploiter la relation émotionnelle et effrayer la victime au sujet de sa menace semble être une stratégie très sophistiquée et qui fonctionne bien.
Obtenir une voix originale est facile
Les attaquants n’ont généralement pas de problème majeur pour trouver les enregistrements vocaux originaux des victimes à proximité. De nombreuses personnes ajoutent des vidéos avec leur voix sur les réseaux sociaux ou ajoutent des vidéos sur YouTube et d’autres plateformes. Certaines personnes sont également des personnalités publiques qui sont apparues à la télévision ou sur des podcasts.
Un autre problème est le fait que les gens envoient souvent des messages vocaux à leurs amis et à leur famille. Ceux-ci peuvent facilement être volés lors d’une cyberattaque.
De plus, les attaques sont relativement faciles à réaliser, puisque plusieurs outils d’intelligence artificielle de haute qualité sont disponibles gratuitement sur Internet. De plus, ils ne nécessitent aucune expérience préalable dans le travail avec le son. Dans un cas, un enregistrement vocal de 3 secondes suffisait et l’intelligence artificielle était capable créer une copie avec 85% d’accord avec l’original.
Les différents accents, que l’intelligence artificielle peut reproduire, ne sont plus un problème. Les seules exceptions sont des styles de parole fondamentalement différents, qu’il s’agisse d’un rythme de parole ou d’une intonation non conventionnelle.
Entretien avec un expert de McAfee sur les escroqueries vocales générées par l’IA :
(1 EUR = 1,0813 USD)
« Analyste de longue date. Passionné de cuisine subtilement charmant. Introverti. Accro aux médias sociaux. Lecteur. Pionnier général de la télévision. Étudiant. Future idole des adolescents. »