CeSIA
fr | en
Rapport février 23, 2026

Le CeSIA porte les lignes rouges de l'IA au Sommet indien

Par Charbel-Raphaël Ségerie & Pauline Charazac

Sommet New Delhi

Le CeSIA, représenté au Sommet sur l'impact de l'IA 2026 à Delhi (Inde) par Charbel-Raphaël Segerie et Pauline Charazac, a pris activement part aux discussions sur la sécurité et la gouvernance de l'IA visant à réduire les risques systémiques. Nous avons échangé avec des responsables politiques, des chercheurs, des acteurs de la société civile et des représentants de l'industrie afin d'aborder certains des enjeux les plus pressants.

Le 18 février 2026, le CeSIA a co-organisé avec The Future Society un atelier dans le cadre de la journée AI Safety Connect (AISC), consacré à la définition et à la gouvernance des risques inacceptables liés à l'IA. Des représentants nationaux et régionaux du Danemark, du Brésil, du Japon, de Singapour, du Canada et de l'Union européenne, aux côtés de responsables d'instances multilatérales et de la société civile, se sont penchés sur la manière d'harmoniser les approches face aux risques de l'IA qui menacent la sécurité, les droits fondamentaux, les processus démocratiques ou la stabilité internationale. La session s'inscrivait dans la dynamique de l'Appel mondial pour des lignes rouges sur l'IA. Elle cherchait d'abord à recenser les domaines où des risques inacceptables font déjà l'objet d'une régulation concrète, puis à étudier comment les convergences qui se dessinent pourraient nourrir des cadres de gouvernance interopérables, voire mondiaux.

Si de nombreuses juridictions commencent à préciser les pratiques d'IA prohibées, la coordination internationale reste morcelée. Les définitions, les mécanismes réglementaires et leurs modalités d'application varient sensiblement d'un pays à l'autre et il existe peu de consensus sur leur mise en œuvre transfrontalière.

Les principaux enseignements de cet atelier sont les suivants :

  1. Interdictions nationales : plusieurs pays élaborent, chacun de leur côté, des interdictions ciblant certaines pratiques d'IA.
  2. Difficultés de priorisation : des préjudices liés à l'IA se manifestent déjà, mais aucun consensus ne se dégage sur la manière de hiérarchiser les risques actuels par rapport aux menaces futures.
  3. Coordination par coalitions : une harmonisation mondiale paraît peu probable ; les avancées viendront plus vraisemblablement de coalitions et de convergences par secteur.
  4. Lacunes dans l'application : la standardisation technique et les difficultés de mise en œuvre freinent une application effective.
  5. Manque de données : le signalement des incidents apparaît comme une piste prometteuse pour combler ce déficit.

Le CeSIA est par ailleurs intervenu dans plusieurs sessions de premier plan :

  • le panel Fairtech du Sommet sur l'impact de l'IA, organisé par The Future Shift Lab ;
  • l'atelier de l'Oxford China Policy Lab consacré à la souveraineté en matière d'IA et à ses implications pour la gouvernance mondiale ;
  • l'atelier Women in Safety and Ethics (WISE) tenu à la GIZ, lors duquel l'Appel mondial pour des lignes rouges sur l'IA a été présenté ;
  • et le panel WISE sur la gouvernance de l'IA, où le CeSIA a rejoint le Vedica Scholars Programme for Women et WISE pour évoquer les politiques publiques, les normes et les cadres internationaux.

Alors que le Sommet sur l'impact de l'IA a souligné l'urgence d'un cadre de gouvernance partagé et opérationnel, le CeSIA reste pleinement mobilisé pour faire avancer ces discussions et tracer des lignes rouges face aux usages et aux risques inacceptables de l'IA. L'édition 2027 du Sommet de l’IA, qui se tiendra à Genève, sera déterminante pour traduire le consensus scientifique qui émerge en une gouvernance mondiale efficace.