16 mars 2026

Combler le fossé des preuves sur l’utilisation malveillante de l’IA dans le cyberespace – évènement thématique à la conférence RSAC 2026

Une voie vers la coopération mondiale à l'intersection de la sécurité de l'IA et du renseignement sur les cybermenaces

Dans le cadre du volet numérique de la présidence française du G7 en 2026, une ambition claire prend forme : rassembler des partenaires partageant les mêmes valeurs autour d'une vision commune d'une IA sûre et de confiance au service du bien commun. Au cœur de cet effort se trouve la recherche d'un consensus international sur la sécurité de l'IA, avec un focus délibéré sur le détournement de l'IA à des fins malveillantes et les défis complexes en matière de cybersécurité qu'accompagne la diffusion rapide de ces capacités. En marge de RSAC 2026, le Forum de Paris sur la Paix, avec le soutien du Consulat Général de France à San Francisco, organise un petit-déjeuner de travail afin de faire avancer un impératif central de cet agenda : combler le fossé des preuves qui empêche actuellement toute responsabilisation pour l'utilisation malveillante de l'IA par des adversaires dans le cyberespace.

 

Contexte

L'utilisation opérationnelle de l'IA par des acteurs malveillants a franchi un seuil qualitatif. De récents rapports de renseignement sur les menaces confirment que des acteurs étatiques et des groupes criminels intègrent désormais les capacités de l'IA tout au long du cycle opérationnel, tandis qu'un marché croissant sur le dark web d'outils d'attaque améliorés par l'IA abaisse le seuil d'entrée pour des acteurs moins expérimentés. Pourtant, les preuves sous-jacentes demeurent structurellement fragmentées. Les développeurs d'IA observent la couche des modèles — contournements de garde-fous, abus d'API, exploitation agentique — tandis que les éditeurs de cybersécurité surveillent le réseau et les terminaux. Malgré des initiatives notables ces dernières années, l'écosystème global de partage d'informations entre ces deux communautés reste immature, car aucun mécanisme de confiance n'existe pour réconcilier ces deux tableaux en une base de preuves commune, exploitable par les décideurs politiques. Ce fossé a des conséquences directes sur la gouvernance : sans données fiables et comparables sur la façon dont l'IA est weaponisée tout au long des chaînes d'attaque, les décideurs peinent à calibrer leurs réponses, à définir les responsabilités ou à adapter les normes cyber existantes.

Dans ce contexte, un point de départ utile réside dans les structures organisationnelles éprouvées que la communauté de la cybersécurité a mises en place pour consolider le renseignement et coordonner les réponses face au paysage mondial des menaces. Les plateformes de partage d'informations et les protocoles d'échange de menaces permettent aux défenseurs de mutualiser les preuves au-delà des frontières ; les dispositifs de signalement d'incidents et la divulgation coordonnée des vulnérabilités fournissent les incitations qui rendent ces échanges viables dans la durée.

La communauté de la sécurité de l'IA, en revanche, a largement investi dans l'évaluation des modèles et l'évaluation des risques en amont du déploiement, tandis que la surveillance post-déploiement de la façon dont les modèles sont réellement utilisés « dans la nature » reste embryonnaire.

 

Objectifs 

Ce petit-déjeuner de travail vise à explorer comment mieux intégrer les communautés de la cybersécurité et de la sécurité de l'IA afin de faire progresser la transparence mondiale sur l'utilisation malveillante de l'IA dans le cyberespace. En particulier, les participants seront invités à répondre aux questions suivantes :

  • Quels sont les principaux obstacles techniques, structurels et motivationnels qui empêchent un partage efficace du renseignement entre les praticiens de la sécurité de l'IA et de la cybersécurité dans les secteurs public et privé ?
  • Comment les mécanismes, cadres ou pratiques éprouvés de l'écosystème de la cybersécurité peuvent-ils être mobilisés pour produire une image plus claire et exploitable par les décideurs à partir des apports des deux communautés ?
  • Sur quelles initiatives existantes à l'intersection de la sécurité de l'IA et de la cybersécurité convient-il de s'appuyer dans le cadre du G7 pour faire avancer la coordination internationale dans la lutte contre les adversaires cybernétiques augmentés par l'IA ?

Les échanges se tiendront sous la règle de Chatham House

Pour plus d'information veuillez contacter : pablo.rice@parispeaceforum.org