Alerte : L’intelligence artificielle au service de la cybercriminalité…
Les cybercriminels exploitent l’intelligence artificielle pour leurs attaques
Les cybercriminels ont trouvé un nouveau terrain de jeu pour mener leurs attaques de manière plus efficace et crédible : l’intelligence artificielle (IA). En utilisant l’IA générative, qui est devenue populaire grâce au robot conversationnel ChatGPT, ces criminels peuvent améliorer leurs méthodes de phishing, de rançongiciels, d’escroqueries et même d’arnaques au président.
Une IA qui se démocratise chez les cybercriminels
Selon Jean-Jacques Latour, directeur de l’expertise en cybersécurité de Cybermalveillance.gouv.fr, l’IA se démocratise chez les cybercriminels, les rendant plus efficaces et crédibles. Les techniques utilisées par ces criminels restent les mêmes, mais le volume des attaques et leur force de persuasion augmentent considérablement.
Des e-mails de phishing de plus en plus sophistiqués
Les e-mails de phishing, qui promettent des cadeaux gratuits ou des réductions, deviennent de plus en plus sophistiqués pour éviter les erreurs de syntaxe ou d’orthographe grossières. Les escrocs s’adaptent au langage de leurs victimes et utilisent des contextes appropriés pour les convaincre de cliquer sur des liens ou des sites douteux.
L’IA générative pour créer des logiciels malveillants personnalisés
L’IA générative peut être détournée pour créer des logiciels malveillants personnalisés qui exploitent des vulnérabilités connues dans les programmes informatiques. Des programmes tels que ThreatGPT, WormGPT et FraudGPT se développent sur le Darknet et gagnent en popularité parmi les acteurs malveillants.
L’IA pour trier et exploiter les données
Les hackers utilisent également l’IA pour trier et exploiter une grande quantité de données après avoir infiltré un système informatique. Cela leur permet de maximiser leurs profits en ciblant les informations les plus pertinentes.
L’IA au service de l’arnaque au président
L’IA est également utilisée dans le cadre de l’arnaque au président, où les hackers collectent des informations sur les dirigeants d’entreprises pour autoriser des virements frauduleux. Grâce aux générateurs d’audio « deepfake », ils peuvent imiter parfaitement la voix des dirigeants pour donner des ordres de virement.
Les rançongiciels et le vishing également concernés
Les rançongiciels utilisent déjà l’IA pour modifier leur code et échapper à la détection des outils de sécurité. De plus, la technique du vishing, où un faux banquier demande un transfert d’argent, pourrait également être améliorée grâce à l’IA.
Des contenus synthétiques générés par l’IA pour tromper les victimes
La police britannique a signalé des cas où des contenus synthétiques générés par l’IA ont été utilisés pour tromper, harceler ou extorquer des victimes. Bien que les premiers cas en France n’aient pas été officiellement recensés, des doutes subsistent quant à l’utilisation de l’IA par les criminels.
La règle du « zero trust » pour contrer ces nouvelles menaces
Face à ces nouvelles menaces, il est essentiel d’appliquer la règle du « zero trust » en matière de cybersécurité et d’IA, c’est-à-dire de ne faire confiance à aucun élément a priori. Les hackers les plus actifs sont généralement des réseaux bien organisés d’Europe de l’Est, mais il ne faut pas négliger les pirates étatiques de pays en marge.
Conclusion
La cybercriminalité exploitant l’IA représente une menace croissante. Les cybercriminels utilisent de plus en plus l’IA pour améliorer leurs techniques et mener des attaques plus crédibles. Il est essentiel de rester vigilant et de mettre en place des mesures de protection appropriées pour contrer ces menaces.