Interview de Jake Moore, Global Security Advisor d’ESET

Mettre fin aux escroqueries au clonage vocal de l’IA

ESET
ESET
Advertorial

Advertorial met en relation les organisations avec les lecteurs et fait appel aux spécialistes de Roularta Brand Studio pour le texte et les illustrations. Le contenu peut être fourni par le partenaire et n'engage pas la responsabilité de la rédaction.

31 janvier 2024, 06:00 Mise à jour le: 31 janvier 2024, 08:25

Vous laisseriez-vous piéger par un faux appel de votre CEO vous demandant de transférer de l’argent ? Jake Moore d’ESET a découvert que c’est possible.

Les entreprises pourront-elles se défendre en utilisant les technologies actuelles, largement disponibles ?
« Je ne pense pas que la réponse réside dans les technologies de contre-mesure pour lutter contre ce problème. »
« Nous sommes encore au début de cette nouvelle ère de l’IA et de nombreuses entreprises se basent sur l’idée de bonnes, de mauvaises et de très mauvaises utilisations. La technologie est en développement constant pour aider ceux qui en ont besoin, mais la vitesse ne peut pas suivre l’évolution des demandes illicites d’utilisation pour arnaquer les personnes et les entreprises. L’IA permet aux fraudeurs de mener des actions bien plus grandes qu’auparavant. Cela signifie que le jeu est devenu encore plus important. Si davantage de personnes sont ciblées, les récompenses récoltées sont bien plus importantes et cela sans efforts supplémentaires pour les fraudeurs. »
« Mais nous devons continuer à être plus avertis face à toutes les escroqueries, des fraudes classiques aux tendances actuelles. Avec la naissance du clonage de la voix et de la falsification de ressemblances avec une précision frappante, il faut cesser de penser que voir (et entendre), c’est croire. Etre conscient que de telles escroqueries sont possibles, donnera aux personnes ciblées la confiance pour mettre en question ces communications avec plus d’attention et leur apprendra à ne pas avoir peur de remettre leurs actions en question. »
« Sur internet il y a de nombreux conseils en matière de sensibilisation à de telles escroqueries et il faut continuellement se tenir à jour avec les dernières informations pour être et rester protégé. »

Que peuvent faire les équipes antifraude institutionnelles pour atténuer les attaques contre leurs utilisateurs/clients?
« A tout prix, les équipes antifraude doivent proposer des formations, qui doivent être annuelles et ponctuelles pour tous les membres d’une organisation. La simulation d’attaques et les jeux de guerre aident à faire passer le message de façon intéressante et à introduire un problème important dans une dynamique plus intéressante, permettant l’échec dans un environnement sûr. Quand on aura expérimenté la notion d’attaque moderne et été témoins de l’ampleur de cette nouvelle technologie, lors d’une attaque réelle, on sera plus susceptibles de se souvenir des conseils donnés. L’IA est très impressionnante. Voir les deepfakes en action dans un environnement sûr permet de montrer les résultats potentiellement dangereux qu’elles peuvent générer sans créer un facteur de peur. »

C’est le jeu du chat et de la souris, qui va gagner ?
« Depuis le début, il y a une course-poursuite entre « flics et voleurs », où les voleurs ont en général quelques longueurs d’avance. Mais alors que la technologie s’améliore, nous ne pouvons pas nous laisser distancer et donner un avantage encore plus grand aux fraudeurs. Les personnes doivent disposer d’outils et de connaissances adéquats pour lutter au mieux, afin que les fraudeurs ne gagnent pas toujours. En se tenant au courant des dernières attaques et de l’évolution des escroqueries, particuliers et entreprises ont les meilleures chances de se défendre contre cette nouvelle vague d’attaques technologiques. »

« Ce n’est plus une menace théorique, c’est sûr. Attendez-vous à ce que 2024 et après soit le moment où les fraudeurs trouveront de nouveaux moyens automatisés de lancer rapidement des attaques vocales, en réponse à des événements cataclysmiques où un responsable de confiance vous «demande» de faire quelque chose. Cela semblera convaincant, avec un air d’urgence et avec ce qui semble être une authentification auditive multifactorielle, mais vous pouvez toujours vous faire arnaquer, même si vous « avez personnellement entendu un responsable ». »