Anthropic a annoncé le modèle le plus puissant qu'ils aient jamais construit et a refusé de le publier. Claude Mythos Preview peut trouver et exploiter des vulnérabilités logicielles de manière autonome à un niveau qu'Anthropic dit rivaliser avec des chercheurs en sécurité humains expérimentés. Il a déjà mis au jour des milliers de zero-days à forte gravité dans tous les systèmes d'exploitation et navigateurs majeurs, y compris des failles qui avaient survécu 27 ans dans OpenBSD. Au lieu d'une publication publique, Anthropic a donné à 52 organisations sélectionnées un accès contrôlé via Project Glasswing, s'est engagé sur 100 millions de dollars en crédits d'usage, et a publié Claude Opus 4.7 comme modèle grand public. La Fed et le Trésor briefent désormais les PDG des grandes banques américaines. L'évaluation indépendante de l'UK AI Safety Institute confirme que les capacités sont réelles.
- Anthropic le qualifie de 'plus grand risque lié à l'alignement de tous les modèles que nous avons publiés à ce jour.'
- Premier modèle d'IA à franchir les défis capture-the-flag de niveau expert de l'UK AISI avec un taux de 73% - aucun modèle précédent n'avait dépassé 50%.
- Premier modèle d'IA à compléter la simulation d'attaque à 32 étapes contre un réseau d'entreprise de l'UK AISI de bout en bout.
- A trouvé des milliers de zero-days à forte gravité dont des vulnérabilités dans OpenBSD (27 ans), FFmpeg (16 ans) et le noyau Linux.
- Project Glasswing a été lancé avec 12 partenaires nommés : AWS, Apple, Google, Microsoft, NVIDIA, Cisco, CrowdStrike, JPMorgan Chase, Broadcom, Palo Alto Networks, la Linux Foundation et Anthropic. 40+ autres organisations ont également accès.
- Anthropic a engagé 100 millions de dollars en crédits d'usage pour Glasswing, plus 4 millions à la sécurité open source (2,5M à Alpha-Omega/OpenSSF, 1,5M à l'Apache Software Foundation).
- Le président de la Fed Jerome Powell et le Secrétaire au Trésor Scott Bessent ont briefé les PDG des grandes banques américaines sur les risques cyber de Mythos la même semaine.
- Claude Opus 4.7 est le remplaçant public. Anthropic a concédé qu'il est en retard sur Mythos sur tous les benchmarks majeurs.
La plupart des semaines en IA, l'histoire, c'est quel modèle a été publié. Celle-ci, c'est l'inverse : un modèle qu'Anthropic a terminé, évalué, puis décidé que le public ne pouvait pas avoir.
Anthropic a annoncé Claude Mythos Preview. Peu après, ils ont publié Claude Opus 4.7 comme modèle grand public. L'écart entre ces deux modèles est l'histoire IA la plus intéressante de l'année, et presque personne ne la raconte correctement.
Ce Qu'Est Claude Mythos Réellement
Mythos est un modèle qu'Anthropic a terminé puis retiré du circuit de publication publique. Il surpasse Claude Opus 4.7, GPT-5.4 et Gemini 3.1 Pro sur tous les benchmarks de cybersécurité et de programmation avancée publiés par l'entreprise.
La déclaration de capacité qui compte, dans les propres mots d'Anthropic sur la page Project Glasswing :
La raison déclarée par Anthropic
"Les modèles d'IA ont atteint un niveau de capacité de programmation où ils peuvent surpasser tous sauf les humains les plus expérimentés dans la recherche et l'exploitation de vulnérabilités logicielles."
Ce n'est pas du langage marketing. La documentation technique d'Anthropic pour Mythos indique sans détour qu'une publication large "donnerait aux attaquants une corne d'abondance de zero-days pour pratiquement tous les logiciels de la Terre, y compris tous les systèmes d'exploitation et navigateurs majeurs."
Les résultats concrets le confirment. Mythos a déjà découvert de manière autonome des milliers de vulnérabilités à forte gravité dans des logiciels en production, dont des failles qui avaient survécu plus de 40 ans cumulés dans OpenBSD, FFmpeg et le noyau Linux.
Pourquoi Anthropic L'A Retenu
La plupart des couvertures se trompent sur ce point. Le cadrage habituel, "Anthropic a construit quelque chose de trop dangereux à publier," n'est pas tout à fait exact. La version plus précise, c'est qu'Anthropic pense que l'équilibre offensif-défensif penche du mauvais côté si tout le monde obtient Mythos en même temps.
Le raisonnement est le suivant. Si une entreprise de cybersécurité avec Mythos peut trouver une vulnérabilité en trois heures, un attaquant avec Mythos le peut aussi. Le défenseur doit alors la corriger avant que l'attaquant ne l'utilise. Donnez l'outil aux deux camps en même temps et l'attaquant gagne, parce que les chaînes d'approvisionnement sont lentes et les cycles de correctifs prennent des semaines.
Le pari d'Anthropic, c'est donc de laisser courir les défenseurs d'abord. Donner à la Linux Foundation, à l'Apache Software Foundation, à AWS, Apple, Microsoft, Google et aux principaux éditeurs de sécurité 90 jours d'avance. Qu'ils trouvent et corrigent les pires vulnérabilités pendant que le modèle ne peut pas être loué par quiconque possède une carte de crédit. Puis, peut-être, élargir l'accès.
Ce qu'est vraiment Opus 4.7
Le timing de la publication d'Opus 4.7 n'est pas une coïncidence. Anthropic avait besoin d'un modèle public très bon mais mesurablement plus faible que Mythos sur les tâches cyber-offensives. Anthropic elle-même a concédé qu'Opus 4.7 est en retard sur Mythos sur les benchmarks avancés de programmation et de cybersécurité. Cet écart est le produit, pas un effet de bord.
Là Où Mythos Prend l'Avantage
Anthropic n'a pas publié de feuille de benchmarks comparative complète avec Mythos. Ce qui a été divulgué, combiné à l'évaluation indépendante de l'UK AISI, pointe dans la même direction : Mythos est au-dessus de tous les modèles publiés sur les tâches cyber-offensives.
La donnée publique la plus claire vient de l'AISI. Mythos est devenu le premier modèle d'IA à franchir les défis capture-the-flag de niveau expert avec un taux de réussite de 73%. Aucun modèle précédent n'avait dépassé 50% à ce niveau. C'est aussi le premier modèle à compléter la simulation d'attaque à 32 étapes contre un réseau d'entreprise de l'AISI de bout en bout, ce qui prend à un red-teamer humain expérimenté environ 20 heures.
Anthropic a par ailleurs concédé que Claude Opus 4.7, son modèle public, est en retard sur Mythos sur les benchmarks avancés de programmation et de cybersécurité. L'écart exact n'est pas public. Ce qui est public, c'est la décision qu'Anthropic a prise sur cette base : les partenaires qui doivent corriger des vulnérabilités obtiennent Mythos ; nous autres recevons Opus 4.7.
Cet écart est aussi toute la raison d'être de Project Glasswing.
Dans Project Glasswing
Besoin d'aide pour implémenter ceci ?
Plus de 50 implémentations · 60 % plus rapide · 2-4 semaines
Glasswing est structuré comme une fenêtre de 90 jours à priorité défensive. Anthropic a publié la liste complète des partenaires et s'est engagé à publier les résultats dans les 90 jours suivant le lancement.
Les 12 partenaires de lancement :
Partenaires de lancement - ce que chacun apporte
| Partenaire | Rôle |
|---|---|
| Anthropic | Héberge Mythos, finance les crédits d'usage, examine les découvertes |
| AWS | Scanne ses propres services ; intégration Bedrock pour les membres entreprise de Glasswing |
| Apple | Scanne iOS, macOS, Safari et ses services propres |
| Scanne Android, Chrome, Gmail, Google Cloud | |
| Microsoft | Scanne Windows, Azure, Office, Edge |
| NVIDIA | Scanne le stack de pilotes, CUDA, le firmware GPU |
| Cisco | Scanne l'infrastructure réseau et le stack de routage entreprise |
| CrowdStrike | Intégration de renseignement sur les menaces et déploiement défensif |
| Palo Alto Networks | Scans des produits pare-feu et sécurité réseau |
| JPMorgan Chase | Red team services financiers, première grande banque du programme |
| Broadcom | VMware, Symantec et surfaces hardware/firmware |
| Linux Foundation | Noyau open-source, OpenSSF et projets Alpha-Omega |
40 autres organisations ont accès sans être nommées publiquement. Anthropic les décrit uniquement comme des entités qui "construisent ou maintiennent des logiciels critiques."
La structure financière compte. Anthropic paie elle-même les crédits d'usage, 100 millions de dollars engagés, plutôt que de facturer les membres de Glasswing. C'est un écart notable par rapport à la manière dont tout autre laboratoire d'IA frontier gère l'accès à des capacités élevées. Par-dessus, Anthropic a donné 4 millions de dollars en espèces : 2,5 millions à Alpha-Omega et OpenSSF via la Linux Foundation, et 1,5 million à l'Apache Software Foundation. Ce sont toutes deux des organisations qui maintiennent silencieusement la pile logicielle open-source sur laquelle tourne la majeure partie d'internet.
Le pari Glasswing en une phrase
Anthropic dépense 100 millions de dollars pour laisser 52 organisations trouver et corriger des vulnérabilités dans les logiciels critiques du monde avant de vendre la même capacité à qui voudra l'acheter.
Ce Qu'a Trouvé L'UK AI Safety Institute
L'UK AI Safety Institute a mené des évaluations indépendantes sur Mythos Preview et a publié ses résultats. Deux résultats importent.
Sur les défis capture-the-flag de niveau expert, Mythos a franchi 73% des problèmes les plus durs que l'AISI a pu lui opposer. Aucun modèle n'avait cassé 50% à ce niveau auparavant. Opus 4.6, l'état de l'art précédent, avait un taux de réussite nettement inférieur.
Sur la simulation de réseau d'entreprise "Last Ones" (TLO), Mythos a fait quelque chose qu'aucun modèle n'avait fait avant. TLO est une attaque à 32 étapes contre un réseau d'entreprise synthétique. Un red-teamer humain expérimenté met environ 20 heures à la compléter. Mythos a terminé la chaîne complète dans 3 tentatives sur 10 et a en moyenne 22 des 32 étapes. Opus 4.6 en avait en moyenne 16.
La mise en garde de l'AISI compte ici :
La mise en garde de l'AISI
Les environnements de test "n'ont pas de défenseurs actifs ni d'outillage défensif." L'AISI "ne peut pas dire avec certitude si Mythos Preview serait capable d'attaquer des systèmes bien défendus." L'évaluation de l'institut est que Mythos est "capable d'attaquer de manière autonome de petits systèmes d'entreprise mal défendus et vulnérables." Ce qui, pour être direct, couvre la plupart des réseaux de petites entreprises, la plupart des systèmes informatiques des collectivités locales, et une proportion inquiétante d'établissements de santé.
Pourquoi La Fed Et Le Trésor Briefent Les Banques Américaines
Le président de la Réserve fédérale Jerome Powell et le Secrétaire au Trésor Scott Bessent ont convoqué les PDG des grandes banques américaines à peu près au moment de l'annonce de Mythos, selon CNBC et Bloomberg. Le sujet était Mythos spécifiquement, pas l'IA en général.
L'inquiétude n'est pas que Mythos lui-même fuite. Les contrôles d'accès d'Anthropic pour Glasswing semblent réellement stricts. L'inquiétude concerne ce qui vient ensuite. Si Mythos est la meilleure IA cyber-offensive actuellement, la deuxième est probablement à des mois, pas à des années. Les modèles open-weight de laboratoires hors du cadre Responsible Scaling Policy rattraperont leur retard. Les régulateurs financiers américains se demandent si les banques sont prêtes pour des attaques au niveau Mythos sans la couche de sécurité d'Anthropic.
La réponse, à en juger par la volonté de la Fed d'organiser une réunion d'urgence, c'est "pas encore." Bloomberg rapporte que l'administration exhorte les grandes banques de Wall Street à faire du red-teaming volontaire sur leur propre infrastructure contre Mythos via Glasswing avant qu'un adversaire ne mette en ligne une capacité équivalente.
Le Précédent Que Cela Crée
C'est la première fois qu'un laboratoire d'IA frontier termine un modèle, l'évalue à l'état de l'art et refuse de le publier par les canaux commerciaux habituels de sa propre initiative. OpenAI a retardé des publications pour revue de sécurité. Google a encadré des capacités spécifiques. Aucun laboratoire n'avait jamais dit, publiquement : "nous avons construit quelque chose, nous pensons que c'est le meilleur modèle que nous ayons entraîné, et aucun dispositif de sécurité n'est suffisant pour que le public puisse l'utiliser."
Deux choses découlent de cela.
Premièrement, la Responsible Scaling Policy est désormais structurante. Le cadre RSP d'Anthropic classe les modèles en Niveaux de Sécurité IA (ASL) et a été conçu exactement pour ce scénario. Que Mythos franchisse formellement un seuil ASL-3 fait en réalité débat. Certains chercheurs en alignement soutiennent qu'il ne le franchit pas, et Anthropic l'a retenu quand même. De toute façon, la décision crée le précédent qu'un laboratoire peut dépasser ses seuils publiés s'il juge la situation justifiée. Cette flexibilité coupe dans les deux sens.
Deuxièmement, le débat public-contre-accès-contrôlé n'est plus théorique. Quiconque veut une capacité cyber-offensive frontier a maintenant la preuve concrète que la capacité existe et qu'Anthropic ne la lui vendra pas. Ça change le calcul pour tous les autres laboratoires. Le GPT-5.4-Cyber d'OpenAI est allé dans une direction similaire avec une vérification utilisateur obligatoire. Attendez-vous à plus de cela, pas à moins.
La question ouverte, et personne n'a de bonne réponse pour l'instant : que se passe-t-il quand le prochain laboratoire à construire un modèle cyber au niveau Mythos n'est pas basé dans un pays qui applique des Responsible Scaling Policies ?
FAQ
Quelle est la différence entre Claude Mythos et Claude Opus 4.7 ?
Opus 4.7 est le modèle grand public actuel d'Anthropic. Tout le monde peut l'utiliser via l'API, Claude.ai, Amazon Bedrock, Google Vertex ou Microsoft Foundry. Mythos n'est pas disponible publiquement. Il obtient des scores significativement plus élevés sur tous les benchmarks avancés de programmation et de cybersécurité. Mythos n'est disponible que pour environ 52 organisations sélectionnées via Project Glasswing.
Mon entreprise peut-elle obtenir l'accès à Project Glasswing ?
Probablement pas, sauf si vous construisez ou maintenez déjà des logiciels critiques. Anthropic n'a pas publié de critères de candidature, mais les 40+ membres supplémentaires (non nommés) de Glasswing seraient, d'après les rapports, concentrés parmi les grands mainteneurs open-source, les opérateurs d'infrastructure critique et les institutions financières. Les clients entreprise sur AWS, Azure et GCP ont des voies d'accès via ces partenariats cloud.
"Mythos" est-il le nom définitif ou un nom de code ?
Anthropic l'appelle "Claude Mythos Preview" dans ses communications officielles, ce qui suggère qu'un successeur sous le nom Mythos pourrait arriver plus tard. L'étiquette "Preview" est significative : elle signale une stratégie publique inachevée, pas un archivage permanent.
Claude Mythos sera-t-il un jour publié au grand public ?
Anthropic ne s'est pas engagé sur une publication publique. La fenêtre Glasswing est de 90 jours initialement, avec un rapport de résultats à la fin. Une publication plus large dépend de ce que cette fenêtre fera remonter, spécifiquement si l'arriéré de correctifs des zero-days que Mythos trouve peut être traité plus vite que les adversaires ne peuvent construire des modèles équivalents.
Comment cela se compare-t-il au GPT-5.4-Cyber d'OpenAI ?
GPT-5.4-Cyber a une vérification utilisateur obligatoire pour les professionnels de la défense et de la cybersécurité. Il est encadré mais commercialement disponible : les clients qui passent la vérification peuvent le louer. Mythos n'est pas louable du tout. L'accès se fait sur invitation, pas par transaction. Mythos est aussi matériellement plus capable sur les benchmarks de cybersécurité.
Que dois-je concrètement faire en tant qu'organisation non-Glasswing ?
Trois choses. Premièrement, supposer qu'une capacité offensive au niveau Mythos sera disponible commercialement ou illicitement d'ici 12 mois, et ajuster votre posture de sécurité en conséquence. Deuxièmement, si vous exploitez des logiciels critiques, priorisez la réduction de surface d'attaque et le durcissement de la chaîne d'approvisionnement maintenant ; ce sont les défenses qui fonctionnent quelle que soit la capacité de l'attaquant. Troisièmement, surveillez le rapport public à 90 jours d'Anthropic sur Glasswing. Les patterns de correctifs qu'il révélera signaleront où se trouvent les surfaces encore molles.
Continuer la lecture
Stay ahead of the AI curve
We test new AI tools every week and share honest results. Join our newsletter.


