Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 
Les événements

PROGRAMME DES GSDAYS 28 JANVIER 2025

    

Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Mois de la cybersécurité : la prévention cyber, jamais en veille

octobre 2024 par Jean-Christophe Vitu, Vice President Solution Engineer, chez CyberArk

En septembre 2024, une étude menée conjointement par le gouvernement français et l’institut Ipsos révélait que 60 % des Français étaient familiers avec les termes « hameçonnage » et « phishing ». Néanmoins, le même rapport mettait en exergue une plus grande opacité sur des termes comme « deepfake », ce dernier n’étant connu que par 27 % des sondés.

Aujourd’hui, la sensibilisation à la cybersécurité dépasse largement le simple fait d’exhorter les employés à réfléchir avant de cliquer. Les attaques de phishing pilotées par l’IA, en particulier celles utilisant des deepfakes, deviennent de plus en plus sophistiquées. Néanmoins, les dirigeants d’entreprise ne semblent pas tous avoir pleinement conscience de l’ampleur de la menace que cela pose.

Pour illustrer cette tendance en chiffres, la dernière étude de CyberArk montre que :
• Les trois quarts (75 %) des responsables de la sécurité ont confiance dans la capacité de leurs employés à identifier les deepfakes de l’équipe dirigeante de l’entreprise ;
• Cependant, il est alarmant de constater que seuls 28 % des experts en cybersécurité pensent de la même manière, ce qui suggère que la confiance des responsables de la sécurité n’est pas justifiée ;
• Près de la moitié (46 %) des employés craignent que leur image soit exploitée dans des « deepfakes » ;
• Cela en fait leur préoccupation principale, devant leur remplacement par l’IA, éventualité qui n’est redoutée que par 37 % d’entre eux.

L’étude souligne que si la majorité des responsables de la sécurité font confiance à leurs employés pour repérer un « deepfake », le nombre important de victimes potentielles représente une énorme faiblesse potentielle en matière de sécurité. Si le besoin d’éducation et de vigilance de la part des employés est indéniable, des outils proactifs les aideront également à lutter contre les risques croissants posés par les attaques basées sur l’IA et en particulier la menace que les deepfakes représentent pour la sécurité de l’identité.

Pour Jean-Christophe Vitu, VP Solutions Engineer chez CyberArk, sensibiliser les entreprises et leurs employés à la cybersécurité représente un travail de fond qui doit s’effectuer en continu. La constante apparition de nouvelles menaces toujours plus novatrices, comme l’utilisation du deepfake, montre bien que cette tâche doit suivre ces évolutions et se poursuivre continuellement en toile de fond.

« Aujourd’hui, l’utilisation de l’IA permet de générer des deepfakes toujours plus sophistiqués. Ils brouillent les frontières entre vrai et faux, complexifiant encore un peu plus les attaques qui s’appuient sur les identités. Les entreprises doivent prendre conscience de l’ampleur de la menace que représente cette technologie, et que sans protection adéquate, elle finira par percer leurs défenses.

La compromission de certains aspects de l’identité numérique des employés peut entraîner des conséquences potentielles extrêmement dommageables. Ils constituent la première et plus importante ligne de défense et leur entreprise se retrouve exposée une fois cette ligne franchie. De fait, celles-ci se doivent de protéger les accès sensibles, afin de minimiser les risques encourus même en cas d’attaque par deepfake. En effet, avec une protection adéquate, même si les hackers volent des identifiants et contournent les protections de l’entreprise, ils sont immédiatement détectés, limitant les dégâts potentiels causés par l’attaque. Promouvoir une culture encourageant à questionner ou à contester tout élément suspect permettra aux entreprises de renforcer encore leurs défenses, en poussant la prévention des risques cyber bien au-delà du simple "penser avant de cliquer". »


Voir les articles précédents

    

Voir les articles suivants