Résumé exécutif
- L’administration Trump envisagerait un décret imposant une évaluation gouvernementale des modèles d’IA avant leur mise sur le marché.
- Ce revient à 180 degrés intervient après que Donald Trump a abrogé en janvier 2025 le décret Biden sur la sécurité de l’IA.
- Le catalyseur est le modèle Mythos d’Anthropic, que l’entreprise elle-même a jugé trop dangereux pour une diffusion publique.
- La NSA a utilisé Mythos pour évaluer des failles dans les déploiements Microsoft de l’administration.
- Anthropic a refusé de retirer les garde-fous de ses modèles pour les armes autonomes et la surveillance de masse.
- Washington a désigné Anthropic comme risque pour la chaîne d’approvisionnement, faisant capoter un contrat de 200 millions de dollars.
- Le mécanisme envisagé s’inspire du modèle britannique de contrôle pré-release.
- Des représentants d’Anthropic, Google et OpenAI ont été briefés sur ces plans la semaine dernière.
Introduction
En janvier 2025, l’administration Trump abrogeait le décret Biden sur la sécurité de l’IA, marquant une volonté affichée de dérégulation du secteur. Moins de deux ans plus tard, la même administration envisagerait un décret imposant une évaluation obligatoire des modèles d’IA avant leur déploiement public. Ce revirement spectaculaire, révélé par plusieurs officiels anonymes, trouve son origine dans un événement précis : la décision d’Anthropic de ne pas diffuser son modèle Mythos, jugé trop dangereux. La situation illustre les tensions croissantes entre la nécessité de sécuriser les systèmes d’IA frontière et la volonté politique de ne pas freiner l’innovation. Au cœur du débat : comment concilier sécurité nationale, compétitivité technologique et liberté des marchés.
Le modèle Mythos : un catalyseur inattendu du contrôle étatique
Anthropic, startup spécialisée dans l’IA sûre, a développé un modèle nommé Mythos. L’entreprise elle-même l’a jugé trop dangereux pour une diffusion publique. Ce positionnement, à la fois prudent et stratégique, a immédiatement attiré l’attention des agences fédérales américaines. La NSA aurait déjà utilisé Mythos pour évaluer des failles dans les déploiements Microsoft de l’administration, tandis que d’autres agences restaient coupées des outils Anthropic.
Plusieurs analystes contestent cependant la dangerosité réelle de Mythos. Des études montrent que sur certains types de tâches, ses capacités ne dépassent pas celles d’autres modèles existants. Malgré ces nuances, l’impact politique est bien réel. Anthropic a par ailleurs refusé de retirer les garde-fous de ses modèles pour des applications d’armes autonomes et de surveillance de masse. Le Pentagone a réagi en désignant la startup comme risque pour la chaîne d’approvisionnement, ce qui a fait capoter un contrat de 200 millions de dollars. Un juge fédéral a depuis qualifié cette décision d’« orwellienne ». Les relations entre Anthropic et Washington sont donc extrêmement tendues.
Un mécanisme de contrôle pré-release inspiré du modèle britannique
Le décret envisagé s’inspirerait du système britannique de contrôle des modèles d’IA frontière. Un groupe de travail réunirait des dirigeants technologiques et des hauts responsables gouvernementaux : NSA, directeur national du cyber, directeur du renseignement national. Sa mission serait d’évaluer les modèles via des benchmarks de sécurité, avant et après leur déploiement.
Point crucial : le mécanisme accorderait au gouvernement un accès anticipé aux modèles, sans pour autant bloquer leur mise sur le marché. Il ne s’agit donc pas d’une interdiction préalable, mais d’une évaluation obligatoire. Des représentants d’Anthropic, Google et OpenAI auraient déjà été briefés sur ces plans la semaine dernière.
Ce projet intervient dans un vide politique notable. David Sacks, le responsable IA de l’administration Trump, a quitté son poste en mars 2026, laissant la cheffe de cabinet et le secrétaire au Trésor prendre les rênes de la politique IA. Un ancien conseiller senior de l’administration résume l’enjeu : trouver un « équilibre délicat » pour éviter la surréglementation tout en restant au niveau de la technologie. La Maison-Blanche qualifie officiellement ces informations de « spéculation », précisant que toute annonce viendrait de Trump en personne.
Tensions entre entreprises et État : un précédent pour la gouvernance mondiale
Le cas Anthropic met en lumière un dilemme fondamental : les entreprises privées sont aujourd’hui les seules à mesurer pleinement les capacités de leurs modèles. Lorsqu’elles décident de ne pas diffuser un modèle jugé trop dangereux, elles créent un précédent qui interpelle les États. Anthropic voulait une régulation sous Biden ; elle pourrait l’obtenir sous Trump, mais cette fois sans en tenir les rênes.
La NSA, le renseignement national et le Pentagone ont des intérêts divergents. D’un côté, la sécurité nationale exige un accès aux modèles avancés. De l’autre, l’innovation et la compétitivité économique poussent à une diffusion rapide. L’administration Trump doit aussi composer avec les alliés européens, qui avancent sur leur propre régulation (AI Act). Une divergence trop forte entre USA et UE pourrait fragmenter le marché mondial de l’IA.
Un angle mort : les modèles open source progressent hors cadre
Pendant que Washington légifère, les modèles open source continuent de se développer en dehors de tout cadre réglementaire. Llama, Mistral, Falcon et d’autres sont diffusés librement, sans évaluation gouvernementale préalable. Le contrôle pré-release envisagé ne concerne que les modèles propriétaires des grandes entreprises. Or, les capacités des modèles ouverts rattrapent rapidement celles des modèles frontière. Ce déséquilibre pourrait rendre le dispositif partiellement inefficace, voire contre-productif, en incitant les acteurs à privilégier l’open source pour éviter la régulation.
À retenir
- L’administration Trump envisage un décret imposant une évaluation gouvernementale des modèles d’IA avant leur déploiement, un revirement complet par rapport à l’abrogation du décret Biden.
- Le modèle Mythos d’Anthropic, jugé trop dangereux par son propre créateur, a servi de catalyseur ; les tensions entre Anthropic et Washington sont vives.
- Le mécanisme s’inspire du modèle britannique et accorderait un accès anticipé au gouvernement sans bloquer la mise sur le marché, mais les modèles open source restent hors de ce cadre.
Questions fréquentes
Pourquoi l’administration Trump change-t-elle de position sur la régulation de l’IA ?
Le déclencheur est le modèle Mythos d’Anthropic, jugé trop dangereux par l’entreprise elle-même. Cette décision a alerté les agences fédérales, notamment la NSA et le Pentagone. De plus, les tensions entre Anthropic et l’administration (contrat perdu, décision qualifiée d’« orwellienne ») ont mis en lumière les risques liés à l’absence de cadre de sécurité pour les modèles frontière.
Que contiendrait exactement le décret envisagé ?
Il imposerait une évaluation obligatoire des modèles d’IA avant leur déploiement public, via un groupe de travail mêlant dirigeants tech et responsables gouvernementaux (NSA, cyber, renseignement). Le gouvernement aurait un accès anticipé aux modèles, mais sans pouvoir de blocage. Le système s’inspire du modèle britannique.
Quels sont les risques de ce dispositif pour l’innovation ?
Le principal risque est de ralentir la mise sur le marché des modèles, surtout si les délais d’évaluation sont longs. De plus, les modèles open source, non concernés par la mesure, pourraient bénéficier d’un avantage concurrentiel. Enfin, une divergence avec les régulations européennes (AI Act) pourrait créer des frictions commerciales.
Conclusion
Le revirement de l’administration Trump sur la régulation des modèles d’IA illustre la complexité de gouverner une technologie en évolution rapide. Le cas Mythos d’Anthropic a agi comme un révélateur : lorsqu’une entreprise elle-même juge son modèle trop dangereux, l’État ne peut rester inactif. Le dispositif envisagé, calqué sur le modèle britannique, tente un équilibre entre sécurité et innovation. Mais il laisse de côté les modèles open source, qui échappent à tout contrôle. La question centrale demeure : comment garantir la sécurité des systèmes d’IA sans brider la recherche ni créer de distorsions de marché ? La réponse, probablement, ne viendra pas d’un seul pays, mais d’une coordination internationale encore fragile.