Comment les escrocs imitent les voix des membres de votre famille avec l'IA (16/03-2023)- L’intelligence artificielle et l’IA connaissent actuellement un développement rapide.

Des chatbots comme ChatGPT, qui peuvent répondre à toutes sortes de questions, sont intégrés aux moteurs de recherche, et des services comme Dall-E et Midjourney peuvent créer des images de n’importe quoi – sans avoir besoin d’un photographe ou d’un peintre.

Mais l’intelligence artificielle peut aussi être utilisée pour imiter des voix – pour le meilleur ou pour le pire.

Il n’y a pas si longtemps, il était devenu possible d’imiter la voix des membres décédés de la famille pour lire à haute voix aux petits-enfants (une nouvelle fonction d’Alexa présentée à re:Mars à Las Vegas), et maintenant les escrocs adoptent la technologie pour essayer de vous soutirer de l’argent.

Le petit-fils avait besoin d’argent

La Canadienne Ruth Card, 73 ans, en a fait l’expérience. Elle a reçu un appel de son petit-fils Brandon qui lui a dit qu’il avait été arrêté par la police et qu’il avait maintenant besoin d’argent pour verser une caution afin d’être libéré.

Ruth Card s’est précipitée à sa banque locale et a retiré 3 000 dollars canadiens (environ 2 000 euros).

Le montant était le maximum quotidien, alors elle est allée dans une autre succursale pour retirer plus d’argent. Mais dans la nouvelle banque, l’un des employés a pris la vieille dame à part et lui a dit qu’un autre client de la banque avait été appelé dans des circonstances similaires.

L’homme à qui Ruth Card avait parlé n’était probablement pas son petit-fils, mais plutôt un robot qui, avec l’aide de l’intelligence artificielle, ressemblait exactement à lui.

” Nous étions absolument sûrs de parler à Brandon”, raconte Ruth Card au Washington Post, qui raconte l’histoire.

Seulement quelques phrases

Avec les progrès de l’intelligence artificielle de ces dernières années, il est devenu beaucoup plus facile d’apprendre à l’ordinateur à imiter les voix.

L’ordinateur n’a besoin que d’un échantillon vocal de quelques phrases pour créer une copie d’une voix. L’échantillon de voix peut, par exemple, être extrait d’une vidéo YouTube ou d’un autre clip de médias sociaux, librement disponible sur Internet.

En 2022, plus de 36 000 personnes ont été escroquées aux États-Unis par des personnes se faisant passer pour des amis ou des membres de la famille des victimes.

La technologie est facilement disponible en ligne

L’intelligence artificielle, qui imite les voix, est facilement accessible sur le web. Les ordinateurs analysent ce qui rend la voix spéciale, puis recherchent une grande base de données de voix pour en trouver une similaire.

Ce sont des services comme ElevenLabs qui sont utilisés pour les escroqueries. ElevenLabs a déjà été critiqué pour, par exemple, pour avoir fait dire une citation tirée de “Mein Kampf” d’Adolf Hitler par la voix d’Emma Watson (l’actrice de Harry Potter).

Ci-dessous, vous pouvez voir une vidéo de démonstration d’ElevenLabs, où la voix de l’acteur Leonardo DiCaprio est remplacée par diverses imitations générées par ordinateur d’autres voix bien connues.

Difficiles à attraper

Étant donné que ce type de fraude a généralement lieu par téléphone, il est difficile pour les autorités d’attraper les arnaqueurs. Ils peuvent être n’importe où dans le monde, et ils peuvent même facilement donner l’impression que l’appel provient d’un numéro de téléphone que vous connaissez.

Il est donc important, très important, que vous soyez encore plus sceptique si un ami ou un membre de votre famille vous demande de grosses sommes d’argent par téléphone.

Demandez-vous si la trame de fond est réaliste. Essayez d’appeler ou d’écrire à la personne à qui vous semblez parler. Vous pouvez le faire en mettant l’appel en attente sur le téléphone ou vous pouvez leur dire que vous voulez les rappeler.

Et surtout, souvenez-vous de ne jamais payer quoi que ce soit en cartes-cadeaux. Il s’agit d’une astuce typique des fraudeurs, car les cartes-cadeaux sont plus difficiles à retracer qu’un virement bancaire et elles sont impossibles à arrêter. (Cyril Malka)

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Retour en haut