Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 

Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

La France organisera le prochain Sommet sur l’intelligence artificielle

novembre 2023 par Marc Jacob

Bruno Le Maire, ministre de l’Economie, des Finances et de la Souveraineté industrielle et numérique, et Jean-Noël Barrot, ministre délégué chargé du Numérique, ont annoncé aujourd’hui que la France accueillerait la prochaine édition du Sommet sur la sécurité de l’intelligence artificielle (IA) à Paris. L’organisation de ce Sommet s’inscrit en pleine cohérence avec la stratégie française et européenne en matière de gouvernance de l’intelligence artificielle.

Le Royaume-Uni organise les 1er et 2 novembre 2023 un Sommet sur la sécurité de l’intelligence artificielle, le AI Safety Summit, dont l’objectif est de favoriser une compréhension commune des risques technologiques posés par l’IA, notamment l’IA « de pointe », et de développer des coopérations internationales sur la sécurité de ces systèmes. Lors de l’ouverture de ce Sommet à Londres, la France a annoncé qu’elle accueillerait la prochaine édition physique.

Les technologiques d’intelligence artificielle sont des vecteurs de progrès considérables, mais comportent également des risques. Utilisée par des acteurs malveillants, l’intelligence artificielle de pointe peut par exemple faciliter des cyberattaques, des campagnes de désinformation ou la conception d’armes biologiques ou chimiques. Le Sommet sur la sécurité de l’intelligence artificielle propose de lancer des travaux internationaux sur ces risques technologiques extrêmes, voire potentiellement existentiels.

D’autres initiatives nationales, européennes et mondiales, en matière de développement et régulation de l’IA sont en cours dont notamment le partenariat mondial pour l’intelligence artificielle lancé en 2020, initiative franco-canadienne de coopération internationale visant à soutenir le développement responsable et l’utilisation centrée sur l’humain de l’intelligence artificielle. De plus, il y a quelques mois, sous l’impulsion du Président de la République lors de la Présidence française de l’Union européenne, puis sous Présidence japonaise, les chefs d’États du G7 ont appelé de leurs vœux au lancement du « Processus d’Hiroshima ». Sur cette base, des premiers principes directeurs pour les « systèmes d’IA avancés » et un code de conduite pour les développeurs ont été adoptés. Parallèlement, le règlement européen pour l’intelligence artificielle, qui réglementera la mise sur le marché de ces technologies en Europe, est en cours de finalisation.

« L’intelligence artificielle constitue un formidable levier d’innovation, de progrès, et nous souhaitons que l’Europe s’en saisisse pleinement. Certains développements et usages de l’IA posent néanmoins des risques, y compris de sécurité, et une coopération internationale constitue le meilleur moyen d’y faire face. Dans le sillage des initiatives internationales impulsées dès 2018 par le Président de la République en matière d’éthique de l’IA, ce Sommet constitue un rendez-vous essentiel pour apporter des réponses concrètes à ces défis. La France sera ainsi honorée de reprendre le flambeau britannique en organisant le prochain Sommet. » a déclaré Bruno Le Maire, ministre de l’Economie, des Finances, et de la Souveraineté industrielle et numérique. La France est un leader européen dans le développement de modèles d’intelligence artificielle. Le Gouvernement est aux côtés de tous les acteurs privés et publics pour favoriser l’innovation, et réguler selon les risques posés par ces modèles. La première édition du Sommet sur la sécurité de l’intelligence artificielle organisé par le Royaume-Uni permet notamment de développer des coopérations internationales en matière de sécurité, enjeu crucial pour les années à venir. Il était donc naturel que la France accueille la deuxième édition de ce Sommet. » a déclaré Jean-Noël Barrot, ministre délégué chargé du Numérique.


Voir les articles précédents

    

Voir les articles suivants