Audition à l'Assemblée nationale : le CeSIA interpelle l'OPECST sur les risques systémiques de l'IA
Par Arthur Grimonpont


Le 2 avril 2026, Arthur Grimonpont, responsable du plaidoyer du CeSIA, était auditionné par l'Office parlementaire d'évaluation des choix scientifiques et technologiques (OPECST) dans le cadre d'une session consacrée à la diffusion des innovations dans les usages de l'IA.
Devant les parlementaires, Arthur a dressé un état des lieux des risques « systémiques » liés au développement de l’IA : manipulation de l'information, risques biologiques, cyberattaques, perte de contrôle. Ceux-ci s'aggravent à mesure que les capacités de l’IA progressent, faute de garde-fous suffisants.
« Ces entreprises déploient auprès de centaines de millions de personnes des systèmes dont elles admettent elles-mêmes qu'ils ont une chance significative d'être détournés à des fins malveillantes à grande échelle, voire d'échapper à leur contrôle – et il nous faudrait craindre l'incertitude que fait peser la loi sur leur modèle d'affaires. L'incertitude qui doit nous préoccuper est bien évidemment technologique avant d'être réglementaire. » Arthur Grimonpont, responsable du plaidoyer du CeSIA
Trois recommandations concrètes ont été portées à la connaissance de l’OPECST : faire respecter strictement le droit existant (règlement sur les services numériques et règlement sur l’IA), conditionner les grands projets d'investissement dans l'IA à des exigences de sécurité, et soutenir l'élaboration d'un accord international contraignant sur les usages les plus dangereux de l'IA.
Vous pouvez retrouver l'intégralité de l'intervention en vidéo ci-dessous, ainsi que la note de positionnement du CeSIA remise à l'OPECST.
Voir aussi
Le CeSIA appelle à une réponse européenne d'urgence après la révélation des capacités cyber de Claude Mythos
Feuille de route pour une initiative internationale en R&D de l'IA avancée
