Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 

Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Clonage de voix par intelligence artificielle : les arnaques en hausse piègent plus d’1 Français sur 4

mai 2023 par McAfee

McAfee Corp. dévoile son dernier rapport d’étude, dénommé L’Imposteur Artificiel, qui souligne le lien inquiétant entre la technologie de clonage de voix par intelligence artificielle et la hausse hausse des arnaques en ligne. L’étude menée auprès de 7 054 personnes dans sept pays dont la France révèle qu’un quart des Français interrogés ont déjà été confronté à une arnaque au clonage de voix par l’IA – 1 personne sur 10 a déjà été visée personnellement et 15 % ont une connaissance qui en a été victime. 8 victimes françaises sur 10 déclarent avoir perdu de l’argent suite à cette arnaque.

Les chercheurs en sécurité des McAfee Labs dévoilent les informations et analyses résultant d’une étude approfondie des technologies de clonage de voix par l’IA et de l’utilisation qu’en font les cybercriminels.

La voix : nouvelle arme des cybercriminels

Chaque voix étant unique, elle représente l’équivalent sonore d’une empreinte digitale et donc un véritable gage de confiance. Pourtant, 56 % des Français interrogés partagent leur voix en ligne (réseaux sociaux, notes audios, etc.) au moins une fois par semaine, et 7 % le font jusqu’à 10 fois par semaine. Le clonage de voix est donc devenu une arme précieuse dans l’arsenal des cybercriminels.
Face à la popularité et à l’utilisation croissantes des outils d’intelligence artificielle, il est désormais très facile de manipuler les images, les vidéos, et, aussi étrange que cela puisse paraître, les voix de nos proches. Les chercheurs de McAfee ont révélé que les arnaqueurs utilisaient l’IA pour cloner les voix et envoyer des faux messages vocaux ou des fausses notes audio aux contacts des victimes en disant qu’elles étaient en danger. 73% des Français pensent qu’ils ne sauraient pas faire la différence – preuve de la puissance de cette technique.

Une arnaque qui peut coûter cher

Plus d’un tiers (34 %) des Français interrogés déclarent qu’ils répondraient favorablement à un message vocal ou une note audio provenant supposément d’un proche pour demander de l’argent, surtout s’il s’agit de leur conjoint (41 %), d’un parent (29 %) ou d’un enfant (23 %). Les messages jugés les plus convaincants sont ceux indiquant que la personne a été victime d’un vol (42 %), d’un accident de la route (38 %), qu’elle a perdu son téléphone ou son portefeuille (33 %), ou qu’elle se trouve à l’étranger et a besoin d’aide (41 %).
Mais une arnaque de ce type peut avoir de graves conséquences : plus d’un tiers (40%) des personnes interrogées ont déclaré avoir perdu plus de 1 000 €, et 7 % entre 5 000 et 15 000 €.

L’étude a également démontre également que face à la recrudescence des deepfakes et de la désinformation, les utilisateurs sont plus méfiants vis-à-vis du contenu en ligne. 32 % des Français interrogés déclarent être plus vigilants que jamais sur les réseaux sociaux.

« L’intelligence artificielle est une source précieuse de progrès, mais comme toute autre technologie, elle peut être utilisée à des fins malveillantes. C’est ce que nous sommes en train d’observer. Les outils d’IA sont de plus en plus accessibles et faciles à utiliser et ils permettent aux cybercriminels de toucher un nombre croissant de victimes », déclare Vonny Allaman-Gamot, VP Sales, Head of EMEA.

Les recherches de McAfee Labs montrent que le clonage de voix ne nécessite que quelques secondes d’audio et très peu de connaissances.

Dans le cadre de l’étude de McAfee sur cette nouvelle tendance, les chercheurs ont évalué pendant deux semaines l’accessibilité, la simplicité d’utilisation et l’efficacité des outils de clonage de voix par intelligence artificielle. Résultat : plus d’une dizaine d’outils sont disponibles gratuitement sur Internet.

Certains outils sont gratuits, d’autres payants, et la plupart d’entre eux ne requièrent que peu de connaissances en la matière. Lors d’un essai, seules trois secondes d’audio ont suffi pour produire une correspondance à 85 %*. Avec un peu plus de temps et d’implication, il est possible de faire grimper ce chiffre. En travaillant sur les modèles de données, les chercheurs de McAfee sont parvenus à une correspondance à 95 % de la voix, simplement à l’aide de quelques fichiers vidéo.

Plus la correspondance est haute, plus le cybercriminel a de chances de piéger sa victime pour lui soutirer de l’argent. De plus, en exploitant le lien émotionnel des relations entre proches, l’arnaqueur peut extorquer plusieurs milliers de dollars en quelques heures seulement.
« Les outils poussés d’intelligence artificielle ont grandement facilité la tâche des cybercriminels. Ils peuvent désormais aisément cloner la voix d’une personne et l’utiliser pour convaincre ses contacts d’envoyer de l’argent », ajoute Vonny Allaman-Gamot. « Il est important de rester vigilant et de prendre des mesures proactives de prévention pour se protéger et protéger ses proches. En cas d’appel de votre époux ou d’un membre de votre famille, vérifiez le numéro, utilisez un mot en particulier ou posez-lui une question personnelle. Les services de protection de l’identité et de la vie privée travaillent également à limiter les informations personnelles disponibles en ligne que les criminels pourraient utiliser pour être plus convaincants ».

En testant les outils de clonage disponibles, les chercheurs de McAfee ont découvert qu’il était tout à fait possible d’imiter les différents accents anglais du monde – américain, britannique, indien, australien – mais qu’il était plus difficile de cloner des voix aux caractéristiques particulières. Par exemple, une personne parlant à un rythme ou dans un style inhabituel est plus difficile à cloner et serait donc moins susceptible d’être ciblée.
Cependant, les chercheurs ont admis que l’intelligence artificielle permettait déjà de faire beaucoup et qu’il n’a jamais été aussi simple de piéger les utilisateurs.

Comment se protéger des arnaques au clonage de voix par IA

• Établissez un « mot code » verbal avec vos enfants, votre famille, vos plus proches amis, qu’eux seuls peuvent connaître. Assurez-vous de toujours l’utiliser dans le cas d’appel ou d’email pour demander de l’aide, surtout s’ils sont âgés ou vulnérables.
• Examinez toujours la source : S’il s’agit d’un appel, d’un SMS ou d’un email d’une source inconnue, et même si vous reconnaissez le numéro, prenez le temps de réfléchir. Est-ce vraiment la personne que vous connaissez ? Raccrochez et tentez d’appeler cette personne directement ou tentez de vérifier l’information avant de répondre et surtout avant d’envoyer de l’argent.
• Réfléchissez avant de partager : Qui peut voir vos réseaux sociaux ? Les connaissez-vous vraiment ? Leur faites-vous confiance ? Soyez vigilant concernant vos connexions en ligne. Plus elles sont larges, plus vous partagez, et plus le risque de s’exposer à une usurpation d’identité est important.
• Les solutions de protection de l’identité peuvent vous faire savoir si des informations personnelles vous concernant circulent sur le Dark Web. Gardez le contrôle de vos données personnelles pour éviter qu’un cybercriminel ne se fasse passer pour vous.


Méthodologie de l’étude

L’étude sur l’intelligence artificielle a été menée par MSI Research au moyen d’un questionnaire en ligne entre le 13 et le 19 avril 2023 auprès d’un échantillon de 7 054 adultes âgés de plus de 18 ans dans sept pays. L’échantillon était réparti comme suit : 1 009 personnes interrogées aux États-Unis, 1 009 personnes interrogées au Royaume-Uni, 1 007 personnes interrogées en France, 1 008 personnes interrogées en Australie et 1 010 personnes interrogées en Inde.
*Selon une estimation et une évaluation des chercheurs en sécurité de McAfee


Voir les articles précédents

    

Voir les articles suivants