Les cybercriminels exploitent l’intelligence artificielle pour mener des attaques plus efficaces
Table of Contents
Les cybercriminels ont trouvé dans l’intelligence artificielle (IA) un nouvel outil pour mener leurs attaques de manière plus efficace et crédible. L’utilisation de l’IA générative, popularisée par le robot conversationnel ChatGPT, se répand rapidement dans le monde de la cybercriminalité. Les différentes formes d’attaques, telles que le phishing, les rançongiciels, les escroqueries et même les arnaques au président, bénéficient de cette mise à jour des outils utilisés par les criminels.
L’IA rend les cybercriminels plus efficaces et crédibles
Selon Jean-Jacques Latour, directeur de l’expertise en cybersécurité de Cybermalveillance.gouv.fr, l’IA se démocratise chez les cybercriminels et les rend plus efficaces et crédibles. Les méthodes utilisées par ces criminels ne changent pas, mais le volume des attaques et leur force de persuasion augmentent considérablement.
Le phishing devient plus sophistiqué grâce à l’IA
Le phishing, qui vise à tromper les utilisateurs en leur promettant des cadeaux gratuits ou des réductions, devient de plus en plus sophistiqué grâce à l’IA. Les escrocs adaptent le langage utilisé dans leurs e-mails pour mieux convaincre les victimes de cliquer sur des liens ou des sites douteux. Les erreurs grossières de syntaxe ou d’orthographe sont évitées pour rendre l’e-mail plus crédible.
Des logiciels malveillants personnalisés grâce à l’IA générative
L’IA générative peut être détournée pour créer des logiciels malveillants personnalisés, exploitant des vulnérabilités connues des programmes informatiques. Des programmes tels que ThreatGPT, WormGPT et FraudGPT se développent sur le Darknet et gagnent en popularité auprès des acteurs malveillants.
L’IA aide les hackers à exploiter les données après avoir infiltré un système
Les hackers utilisent également l’IA pour trier et exploiter une masse de données après avoir infiltré un système informatique. Cela leur permet de maximiser leurs profits en ciblant les informations les plus pertinentes.
L’arnaque au président et les voix « deepfake »
L’IA est également utilisée dans le cadre de l’arnaque au président, où les hackers collectent des informations sur les dirigeants d’entreprises pour autoriser des virements frauduleux. Grâce aux générateurs d’audio « deepfake », ils peuvent imiter parfaitement la voix des dirigeants pour donner des ordres de virement.
Les rançongiciels et le vishing améliorés grâce à l’IA
Les rançongiciels utilisent déjà l’IA pour modifier leur code et échapper à la détection des outils de sécurité. De plus, la technique du vishing, où un faux banquier demande un transfert d’argent, pourrait également être améliorée grâce à l’IA.
Des contenus synthétiques générés par l’IA pour tromper les victimes
La police britannique a déjà signalé des cas où des contenus synthétiques générés par l’IA ont été utilisés pour tromper, harceler ou extorquer des victimes. Bien que les premiers cas en France n’aient pas été officiellement recensés, des doutes subsistent quant à l’utilisation de l’IA par les criminels.
La règle du « zero trust » est essentielle
Face à ces nouvelles menaces, il est primordial d’appliquer la règle du « zero trust », c’est-à-dire de ne faire confiance à aucun élément a priori en matière de cybersécurité et d’IA. Les hackers les plus actifs sont généralement des réseaux bien organisés d’Europe de l’Est, mais il ne faut pas négliger les pirates étatiques de pays en marge.
Conclusion
En conclusion, la cybercriminalité exploitant l’IA représente une menace croissante. Les cybercriminels utilisent de plus en plus l’IA pour améliorer leurs techniques et mener des attaques plus crédibles. Il est essentiel de rester vigilant et de mettre en place des mesures de protection appropriées pour contrer ces menaces.