Attention à cette nouvelle arnaque à l'IA qui touche principalement les familles ! Elle imite la voix de vos proches !
Il va falloir faire preuve de prudence, car une nouvelle arnaque à l’IA fait des ravages chez les familles ! Elle imite la voix de vos proches !
De plus en plus d’arnaques avec l’IA
L’IA continue de faire des ravages. Parce que nombreuses sont les personnes mal intentionnées qui profitent de cette intelligence pour faire des victimes. Dans le monde entier, des malfaiteurs escroquent des innocents par pur plaisir.
Ce fut le cas à Hong Kong. En effet, des escrocs ont arnaqué une multinationale de 26 millions de dollars, grâce à l’IA et la technique du deepfake. Pour aller au bout de cette arnaque, ils se sont fait passer pour des cadres supérieurs de la firme.
Ainsi, une salarié qui a mordu à l’hameçon a transféré 26 millions de dollars de l’argent de son entreprise à des escrocs. Une arnaque qui la bouleverse terriblement.
Elle a ouvert un mail qui évoquait une transaction secrète. Même si elle était suspicieuse au départ, elle a été rassurée par une visioconférence. Car elle a reconnu ses collègues sur son écran. Alors, elle a procédé à la transaction.
« Les escrocs ont trouvé des vidéos et des audios accessibles au public via YouTube, puis ont utilisé la technologie deepfake pour imiter leurs voix… afin d’inciter la victime à suivre leurs instructions« , a déclaré Baron Chan, un policier.
À ce jour, il est assez facile de réaliser toutes sortes de fake news en utilisant l’IA. Il est possible de fabriquer des vidéos fausses, et des audios trafiqués. Hélas, beaucoup de personnes tombent dans le panneau.
Elles ne parviennent pas à détecter ce type d’arnaque. Car il est difficile de faire une distinction entre une véritable photo et une image générée par IA. De plus en plus de hackers aiment créer une toute nouvelle escroquerie en ligne.
Une arnaque qui touche toutes les familles
Attention à cette nouvelle arnaque qui fait des victimes chez les familles. La raison ? Les escrocs s’amusent à imiter la voix de vos proches grâce à l’IA.
Ils enregistrent votre voix en la récupérant toutes vos vidéos qui sont postées en ligne. Ou bien par vos audios qui se trouvent sur Internet. Par la suite, ils récupèrent des extraits plus complets.
Lorsqu’ils ont assez d’échantillons audio, les hackers se servent d’un logiciel en ligne pour extraire les particularités de votre voix. Cela leur permet de taper n’importe quel texte pour que l’IA le lise en imitant votre voix !
L’arnaque est lancée ! Car les arnaqueurs s’amusent à envoyer de fausses vidéos à tout votre entourage. Résultat, votre famille et vos amis reçoivent des vidéos étranges, qui leur demandent de l’argent par exemple.
La victime, persuadée qu’elle est avec vous au téléphone, ne va pas se poser de questions. Elle va tout de suite faire les virements que les escrocs leur demandent. .
L’asso internationale « Better Business Bureau » (ou BBB) alerte sur le sujet. Elle a mis en garde contre cette nouvelle arnaque qui fait de plus en plus de ravages au sein des familles.
À titre de rappel, il ne faut jamais envoyer de l’argent en urgence à vos proches. Mieux vaut appeler la personne en urgence pour lui demander si elle a vraiment besoin d’argent.
Vous avez aussi la possibilité d’appeler son entourage pour savoir si la personne concernée est victime d’usurpation d’identité. Il faut redoubler de prudence, car cette arnaque est très courante en 2024.