Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 

Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Si les cyberattaques sont dévastatrices, l’utilisation de l’IA par les hackers peuvent changer la donne

juillet 2024 par Eric Heddeland, Vice President, EMEA Southern Region de Barracuda Networks

À n’en point douter, lorsqu’une cyberattaque arrive, cela peut coûter cher. Pour de nombreuses entreprises qui se retrouvent prises dans la spirale d’une attaque, la lutte pour contenir, neutraliser et s’en remettre, peut se solder par une addition très salée. D’après une récente étude, le coût moyen annuel des réponses aux cyber incidents était de 5,34 millions de dollars l’an dernier. Par ailleurs, cette même étude révèle que les attaques seraient devenues plus sophistiquées (62 %) et plus graves (55 %) selon les répondants, et que l’investigation et la reprise après sinistre auraient pris plus de temps.

Sachant que les cyberattaquants utiliseraient l’IA pour augmenter le nombre, la vitesse et la sophistication des attaques, pourquoi s’en priveraient-ils ? De plus, les cyberattaques basées sur l’IA peuvent s’adapter aux moyens de défenses (traditionnelles) qu’elles rencontrent, tirer des leçons de ces expériences, et trouver des moyens de les contourner. De ce fait, si l’IA donne davantage de pouvoir aux pirates, les entreprises peuvent légitimement se demander si elles ont les moyens nécessaires pour y faire face – ou à minima ralentir la progression d’une attaque.

Afin de mieux comprendre ces enjeux, voici les 7 principaux leviers qu’utilisent les cyberattaquants pour exploiter l’IA dans le cadre de leurs attaques.

Développer et lancer des attaques par email particulièrement convaincantes

Depuis très longtemps, les attaques par phishing sont une arme puissante dans l’arsenal des cybercriminels. Le succès de ces attaques est en partie dû à sa capacité d’évolution au fil des années. La principale application de l’IA dans le phishing, le spear phishing et la compromission des emails professionnels, réside dans l’automatisation de la génération de contenu. En effet, l’IA générative peut être utilisée pour créer des messages personnalisés et pertinents, et augmente ainsi les chances de réussite. Des outils d’IA peuvent également faciliter l’usurpation et la subtilisation des adresses mails, la recherche d’informations publiques pour identifier des cibles et adapter les attaques, ou encore à imiter la manière de communiquer pour tromper les destinataires. De plus, l’absence de fautes dans les textes générés par l’IA ajoute une couche de sophistication et rend encore plus difficile l’identification des messages malveillants par les mesures de sécurité traditionnelles qui se basent sur des « erreurs typiquement humaines ».

Créer ou adapter des codes malveillants

L’apparition d’outils malveillants basés sur l’IA, tels que WormGPT et EvilGPT, est un signe d’évolution des cybermenaces. Ces outils permettent aux adversaires d’automatiser la découverte des vulnérabilités et d’exploiter les faiblesses, engendrant ainsi une recrudescence des attaques de type « zero-day ». L’IA permettrait également de créer des malwares évolutifs, composés de codes malveillants capables de modifier leur comportement pour échapper aux systèmes de détection. Parmi les autres exemples de malwares pilotées par l’IA, on peut citer ceux qui créé des pièces jointes malveillantes uniques et polymorphes, des payloads dynamiques qui s’adaptent à l’environnement de la cible, ou encore ceux qui dissimule des contenus pour contourner les dispositifs d’analyse statique.

Créer des réseaux de bots plus importants pour les attaques DDoS

Les grandes capacités de coordination et d’automatisation des réseaux de bots alimentés par l’IA pourraient amplifier le potentiel des attaques massives par déni de service (DDoS). Ces réseaux de bots spécifiques peuvent systématiquement éviter les outils CAPTCHA et les dispositifs de proof-of-work. Ils peuvent également évoluer et ainsi éviter les algorithmes traditionnels qui se basent sur des ensembles de données antérieures qui permettraient d’identifier les bots.

Les deepfakes

Les fausses vidéos et les fausses bandes-son générées par l’IA sont devenus de puissants moyens pour usurper des identités. Toute personne ayant accès à des séquences vidéo et à des enregistrements audio exploitables peut utiliser des outils spécifiques basés sur l’IA pour créer de fausses images et des simulations vocales tout à fait cohérentes. En intégrant ces simulations à des messages de phishing, les attaquants peuvent créer un contenu très convaincant pour tromper les destinataires. Par exemple, en utilisant l’IA pour contrefaire la voix d’une personnalité célèbre et/ou d’un influenceur, le cybercriminel peut tendre des pièges ou partager de fausses informations sur les réseaux sociaux. Notons que d’autres types d’escroqueries utilisant le deepfake – si elles visent des entreprises et si elles aboutissent – peuvent provoquer de lourdes pertes financières.

Des ransomwares dupliqués et adaptés en fonction des pays

Si des outils d’IA permettent d’utiliser des ransomwares et de les localiser en fonction des contextes linguistiques, culturels et sectoriels, ils peuvent ainsi être déployés plus largement à travers le monde. Ces ransomwares polyglottes peuvent ainsi être déclinés et faire des références culturelles, utiliser un jargon propre au secteur visé ou encore intégrer des références à des marques et des institutions locales. Avec l’utilisation de tous ces leviers permettant de renforcer le caractère authentique du contenu, les tentatives de ransomware ont ainsi plus de chance d’aboutir et d’augmenter le nombre de victimes.

Le vol des accès et codes d’identification

De nombreuses cyberattaques commencent par voler les codes d’accès et informations d’identification. Pour les attaquants, l’objectif évident de cette première étape est bien d’accéder à un compte, puis au réseau dans son ensemble. En s’appuyant sur des outils utilisant l’IA, les attaquants peuvent plus facilement atteindre cet objectif, et ce de différentes manières. Par exemple, ils peuvent les utiliser pour créer de fausses pages imitant des portails de connexion très convaincants. Ils peuvent également développer des attaques dites « credential stuffing » en testant quasi-instantanément un grand nombre de combinaisons permettant de trouver le bon nom d’utilisateur et le bon mot de passe associé, en se basant sur des informations recueillies lors d’une précédente violation de données. Par ailleurs, des outils permettant de « cracker » des mots de passe ou se substituer à l’étape du CAPTCHA (toujours basés sur l’IA) peuvent attaquer plus efficacement les méthodes de sécurité élémentaires.

Les modèles d’entraînement d’IA infectés

Sachant que les modèles d’IA sont utilisés pour des applications brassant de grandes quantités de données pour s’entraîner en permanence et s’adapter en conséquence, on peut en déduire que si on y intègre de « bonnes données », cela donnera de « bons résultats ». À l’inverse, si la sécurité des données a été violée et que les données sont infectées ou corrompues volontairement par des attaquants malveillants, les systèmes (qu’ils soient basés sur l’IA ou non) pourraient produire des résultats dangereux et imprévisibles. La sécurité des données est donc particulièrement importante pour les entreprises utilisant l’IA, surtout celles qui l’utilisent pour la prise de décision automatisée – comme les systèmes intégrant des IoT (feux de circulation, modules de contrôle des flux, etc.).

Dans un monde où les entreprises se préparent à ce que l’IA assiste et pilote de plus en plus activités déterminantes, dans le même temps, il est important de comprendre comment les cyberattaquants peuvent eux-aussi se servir des outils et des technologies de l’IA. Sachant cela, elles peuvent ainsi renforcer leurs défenses et adapter correctement leurs méthodes de cyber détection et de prévention pour mieux se protéger. Même si cette technologie présente de grand nombre d’avantages indéniables pour les entreprises, sa valeur en matière de cybersécurité est à double-tranchant : aussi bien redoutable que bénéfique. De ce fait, nous ne devons pas avoir peur des cyberattaquants qui utiliseraient l’IA, nous devons simplement nous tenir prêts.


Voir les articles précédents

    

Voir les articles suivants