CeSIA
fr | en

Nos travaux : Analyser, Accompagner, Éclairer

Analyser

les risques posés par l'IA de pointe

Évaluation des modèles d'IA pour la Commission européenne

Sélectionné par le Bureau européen de l'IA pour évaluer les risques de manipulation des modèles d'IA à usage général, dans le cadre de l'application de l'AI Act.

Commission européenne logo

Évaluateur officiel pour l'AI Act

Évaluation des modèles d'IA pour la Commission européenne

Évaluer la fiabilité des systèmes de supervision de l'IA

BELLS, notre benchmark pour mesurer la capacité des systèmes d'IA à détecter les comportements problématiques d'autres modèles.

UK AISI logo

Adopté par le UK AI Safety Institute

Accompagner

les institutions face aux enjeux de l'IA

Global Call for AI Red Lines

Le CeSIA a initié et co-pilote un appel international pour l'établissement de lignes rouges dans le développement de l'IA.

Vu dans

El Pais logo Le Monde logo NBC News logo BBC logo The New York Times logo
Global Call for AI Red Lines
300+ Personnalités signataires
15 Prix Nobel et Turing
11 Anciens chefs d'État

Porter le débat dans les forums internationaux

Le CeSIA intervient dans les principaux forums internationaux et organise régulièrement des ateliers et événements pour fédérer les acteurs de la sécurité de l'IA.

Événements phares

Grand Symposium sur la Sûreté de l'IA — Sorbonne Université

Grand Symposium sur la Sûreté de l'IA — Sorbonne Université

Yoshua Bengio, Stuart Russell et Dragos Tudorache réunis pour un dialogue sur les enjeux de sécurité des systèmes d'IA les plus avancés.

Masterclass IA & médias — ENS Ulm

Masterclass IA & médias — ENS Ulm

Avec Yoshua Bengio et Reporters Sans Frontières, 15 journalistes de premier plan réunis sur les enjeux de l'IA pour la presse.

Accompagner les institutions françaises face aux risques de l'IA

De la CNIL au Ministère de la Défense, de la DGE au Cabinet du Ministre de l'Intelligence Artificielle : le CeSIA accompagne l'ensemble des institutions qui façonnent la politique française de l'IA.

Accompagner les institutions françaises face aux risques de l'IA

GPAI Code of Practice

Certaines de nos contributions ont été reprises verbatim dans le Code of Practice pour les modèles d'IA à usage général publié par le Bureau européen de l'IA.

Éclairer

sur les enjeux de sécurité de l'IA

Enseignement dans les grandes écoles

Sciences Po, ENS Ulm, ENS Paris-Saclay.

3 cours accrédités dans les grandes écoles

Premier manuel de référence sur la sécurité de l'IA

Un guide complet et régulièrement mis à jour pour comprendre et atténuer les risques posés par les systèmes d'IA avancés.

1 000+ étudiants ont suivi un cours avec l'Atlas

Programme international de formation

Bootcamp de huit jours en présentiel, avec un programme technique et un programme gouvernance & stratégie. À l'origine un programme du CeSIA, désormais assuré par une organisation partenaire.

200+ formés depuis 2024
98 % de satisfaction

Nous écrire

Vous travaillez sur les enjeux de l'IA et souhaitez échanger avec notre équipe ? Écrivez-nous.