L’IA usurpe l’identité des créateurs pour promouvoir des arnaques crypto

L’IA usurpe l’identité des créateurs pour promouvoir des arnaques crypto

Quand l’intelligence artificielle devient complice d’escroqueries

Un phénomène inquiétant prend de l’ampleur dans le monde de la finance numérique : l’utilisation de l’intelligence artificielle pour créer de fausses vidéos promotionnelles d’arnaques aux cryptomonnaies. Un créateur de contenu financier a récemment découvert que son image et sa voix étaient utilisées sans autorisation pour promouvoir des projets crypto frauduleux promettant des rendements irréalistes de 952% par an.

Ces vidéos utilisent de véritables images du créateur, mais modifient artificiellement les mouvements de lèvres pour synchroniser un discours généré par IA. L’arrière-plan est également modifié numériquement pour créer différents décors, donnant l’illusion de multiples enregistrements authentiques.

Les techniques d’usurpation d’identité par IA

La sophistication de ces arnaques est remarquable. Les escrocs utilisent de vraies séquences vidéo de la personne ciblée, ne modifiant que les éléments nécessaires pour faire correspondre le discours frauduleux. La synchronisation labiale générée par IA permet de faire « dire » n’importe quoi à la victime de l’usurpation.

Ces fausses vidéos dirigent ensuite les spectateurs vers des liens malveillants dans la description, souvent des copies d’échanges de cryptomonnaies légitimes comme SushiSwap. L’objectif final est de connecter les portefeuilles crypto des victimes pour voler leurs fonds.

Un phénomène en expansion

Selon un rapport de Resemble AI, 34% des attaques de deepfakes ciblent des citoyens privés, contre 41% pour les personnalités publiques. Plus alarmant encore, 23% de ces deepfakes sont utilisés pour des escroqueries financières, avec plus de 200 millions de dollars de pertes documentées au premier trimestre de cette année seulement.

Les cibles privilégiées des escrocs

Si les personnalités publiques comme les créateurs de contenu, les PDG ou les politiciens sont des cibles évidentes, les citoyens ordinaires ne sont pas épargnés. Il suffit désormais d’une minute d’enregistrement audio pour créer un modèle vocal convaincant, rendant vulnérable quiconque a publié une vidéo sur les réseaux sociaux ou participé à un appel téléphonique enregistré.

Les escrocs exploitent également ces technologies pour des arnaques plus personnelles, comme l’usurpation d’identité de dirigeants d’entreprise dans des communications internes ou les terrifiantes escroqueries d’extorsion prétendant retenir un proche en otage.

Comment se protéger contre ces nouvelles menaces

Face à cette évolution technologique des arnaques, plusieurs mesures de précaution s’imposent. Premièrement, il faut toujours marquer une pause avant d’entreprendre toute action impliquant des paiements ou la divulgation d’informations sensibles.

La vérification de l’identité de l’interlocuteur devient cruciale. Vérifiez la légitimité de la source : le domaine d’un email correspond-il vraiment à celui de l’entreprise concernée ? En cas d’appel prétendument officiel, raccrochez et rappelez directement l’institution concernée par ses canaux officiels.

Établir des protocoles de sécurité

Les experts recommandent d’établir des protocoles familiaux ou professionnels incluant des mots de passe verbaux ou des questions personnelles dont les réponses ne sont pas accessibles sur les réseaux sociaux. Ces mesures peuvent aider à authentifier l’identité d’un proche ou d’un collègue lors de communications suspectes.

L’avenir de la sécurité financière à l’ère de l’IA

Cette évolution technologique marque un tournant dans le paysage des escroqueries financières. Alors qu’auparavant il fallait se méfier du contenu des vidéos promotionnelles, il faut désormais douter de l’authenticité même des créateurs qui les présentent.

Les exemples actuels, bien qu’encore imparfaits avec des erreurs audio détectables et des arrière-plans peu convaincants, ne représentent que le début de cette tendance. Avec plus de temps et de ressources, ces deepfakes deviendront exponentiellement plus difficiles à détecter, nécessitant une vigilance accrue de la part de tous les utilisateurs d’internet.