Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 
Les événements

PROGRAMME DES GSDAYS 28 JANVIER 2025

    

Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Les Friendly Hackers de Thales inventent un métamodèle de détection des images réalisées par IA (deepfakes)

novembre 2024 par Marc Jacob

A l’occasion de la European Cyber Week qui se tient à Rennes du 19 au 21 novembre 2024, dont la thématique est celle de l’intelligence artificielle, les équipes de Thales ont participé au Challenge de l’AID et ont développé un métamodèle de détection des images générées par IA. A l’heure où la désinformation gagne les médias et tous les secteurs de l’économie, à l’aune de la généralisation des techniques d’IA, cet outil vise à lutter contre la manipulation d’image, pour différents cas d’usage, comme en particulier celui de la lutte contre la fraude à l’identité.

Les images générées par IA le sont grâce à l’utilisation de plateformes IA modernes (Midjourney, Dall-E, Firefly, etc.). Certaines études prévoient que d’ici quelques années, les deepfakes pourraient causer des pertes financières massives en raison de leur usage à des fins d’usurpation d’identité et de fraude. Le cabinet Gartner a estimé qu’en 2023, environ 20 % des cyberattaques pourraient inclure des contenus deepfake dans le cadre de campagnes de désinformation ou de manipulation. Leur rapport1 met en évidence la hausse des deepfakes dans la fraude financière et les attaques de phishing avancées.

« Le métamodèle de Thales de détection des deepfakes répond notamment à la problématique de la fraude à l’identité et à la technique de morphing[1]. L’agrégation de plusieurs méthodes utilisant les réseaux de neurones, la détection du bruit ou encore les fréquences spatiales permettra de mieux sécuriser les solutions de plus en plus nombreuses nécessitant la vérification d’identité par reconnaissance biométrique. Il s’agit d’une avancée technologique remarquable, issue de l’expertise des chercheurs en IA de Thales. » précise Christophe Meyer, Expert Senior en IA et Directeur Technique au sein de cortAIx, l’accélérateur d’IA de Thales.

Le métamodèle de Thales se nourrit des techniques de machine learning, d’arbres de décisions, et d’évaluation des forces et des faiblesses de chaque modèle afin d’analyser l’authenticité d’une image. Il agrège ainsi différents modèles, parmi lesquels :

• La méthode CLIP (Contrastive Language–Image Pre-training) qui consiste à relier des images et du texte en apprenant à comprendre comment une image et sa description textuelle se correspondent. En d’autres termes, CLIP apprend à associer des éléments visuels (comme une photo) avec des mots qui les décrivent. Pour détecter les deepfakes, CLIP peut analyser des images et évaluer leur compatibilité avec des descriptions sous format texte repérant ainsi les incohérences ou anomalies visuelles.
• La méthode DNF qui utilise les architectures actuelles de génération d’images (les modèle de « diffusion ») pour détecter celles-ci. Concrètement, les modèles de diffusion sont basés sur l’estimation d’un bruit à ajouter à une image pour créer une « hallucination » qui va générer du contenu à partir de rien. L’estimation de ce bruit peut aussi être utilisée dans la détection des images générées par IA.
• La méthode DCT (Discrete Cosine Transform) repose sur l’analyse des fréquences spatiales d’une image. En transformant l’image de l’espace spatial (pixels) vers l’espace des fréquences (comme les ondes), le DCT permet de déceler des anomalies subtiles dans la structure de l’image, souvent invisibles à l’œil nu. Elles apparaissent lors de la génération de deepfakes.

L’équipe de Friendly Hackers à l’origine de cette invention fait partie de cortAIx, l’accélérateur d’IA de Thales, comptant plus de 600 chercheurs et ingénieurs en IA dont 150 basés sur le plateau de Saclay et intervenant sur des systèmes critiques. Les Friendly Hackers du Groupe ont développé une boite à outils, la BattleBox, dont l’objectif est de faciliter l’évaluation de la robustesse des systèmes intégrant de l’IA contre les attaques visant à exploiter les vulnérabilités intrinsèques des différents modèles d’IA (incluant les Large Language Models), tels que les attaques adverses ou les attaques visant l’extraction des informations sensibles. Pour faire face aux attaques, des contremesures adaptées, telles que le désapprentissage, l’apprentissage fédéré, le tatouage de modèle, la robustification des modèles sont proposées.

Le Groupe a été lauréat en 2023 dans le cadre du challenge CAID (Conference on Artificial Intelligence for Defense) organisé par la DGA, visant à retrouver certaines données utilisées pour entraîner une IA, y compris alors que celles-ci avaient été effacées du système pour préserver leur confidentialité.


Voir les articles précédents

    

Voir les articles suivants