Le CeSIA appelle à une réponse européenne d'urgence après la révélation des capacités cyber de Claude Mythos
Anthropic a annoncé mardi 7 avril le lancement restreint de Claude Mythos Preview, un modèle d'IA capable d'exploiter de manière autonome des milliers de vulnérabilités critiques dans tous les systèmes d'exploitation et navigateurs. Le Centre pour la Sécurité de l’IA (CeSIA) salue la décision de ne pas rendre ce modèle public et enjoint les autorités nationales et européennes à mettre en œuvre un plan de cyberdéfense d'urgence avant que de telles capacités ne deviennent largement accessibles.
D’après une évaluation détaillée de son modèle publiée par Anthropic, Claude Mythos Preview a identifié des milliers de failles de sécurité dont les concepteurs n'avaient pas connaissance, dans l’infrastructure numérique sur laquelle reposent les réseaux électriques, les hôpitaux, les systèmes bancaires et les administrations du monde entier. Face à l'ampleur de ces découvertes, Anthropic a pris la décision inédite de ne pas rendre son modèle public. L'entreprise a lancé Project Glasswing, une initiative privée visant à permettre à une dizaine de grandes entreprises technologiques américaines – dont Apple, Google, Microsoft et Amazon – de corriger en priorité les failles découvertes dans leurs systèmes. Une quarantaine d'organisations supplémentaires ont été associées à cette démarche. Aucune agence publique ni entreprise européenne n'y figure.
Il convient de saluer la décision d'Anthropic de retarder la mise à disposition publique de son modèle. Mais il faut redouter la publication prochaine de modèles aux capacités similaires, qui adviendra selon toute probabilité dans les mois à venir. Les systèmes informatiques mondiaux ne sont pas prêts à affronter le tsunami de cyberattaques qui en résultera. Il nous faut profiter du temps restant pour élever une forteresse cyberdéfensive à la hauteur de la menace.
Charbel-Raphaël Ségerie, directeur exécutif du CeSIA.
Anthropic n'est pas la seule entreprise à développer des modèles de cette puissance : ses concurrents directs disposent – ou disposeront prochainement – de systèmes aux capacités comparables et pourraient décider de les rendre accessibles, réduisant à néant les efforts d’Anthropic pour restreindre la diffusion de son propre modèle. Par ailleurs, les modèles d'IA open source auraient selon différentes estimations moins d’un an de retard sur les modèles privés les plus avancés, ce qui signifie que des capacités équivalentes à celles de Mythos pourraient bientôt être accessibles à tous, y compris aux acteurs malveillants, sans aucun garde-fou.
En l'absence de règles communes, la pression concurrentielle pousse chaque entreprise à publier ses modèles pour ne pas se laisser distancer par les autres, une course au déploiement dont les conséquences en matière de sécurité informatique pourraient être catastrophiques.
Le CeSIA recommande aux autorités nationales et européennes compétentes la mise en place d'un plan de cyberdéfense d'urgence articulé autour de trois axes :
- Mettre à jour d’urgence les préconisations officielles de cybersécurité et veiller à leur bonne application, en particulier pour les opérateurs d’infrastructures vitales et leurs chaînes d’approvisionnement logiciel.
- Construire une capacité européenne de détection des vulnérabilités cyber à grande échelle. Investir dans une capacité propre de recherche de vulnérabilités mettant à profit les capacités des modèles les plus avancés, en collaborant le cas échéant avec les entreprises à la pointe du secteur.
- Établir un cadre contraignant pour les modèles d'IA aux capacités offensives. Des obligations de notification, d'évaluation préalable et de restriction d'accès pour les modèles dotés de capacités offensives doivent être instaurées et appliquées à l'échelle européenne et internationale, afin que les mesures de précaution élémentaire ne constituent plus un désavantage compétitif mais une norme.
Voir aussi
Le CeSIA dénonce le décret de Donald Trump visant à neutraliser les lois des États sur l’IA : « une fuite en avant dangereuse au service des géants de la tech »
Feuille de route pour une initiative internationale en R&D de l'IA avancée
