Anthropic a présenté Claude Mythos, un modèle d’IA qu’elle affirme pouvoir dépasser les humains dans certaines tâches de piratage et de cybersécurité, suscitant le débat aux États‑Unis. [1]

Ce modèle est important parce que les banques et autres établissements financiers craignent qu’il puisse être utilisé pour pénétrer les défenses, tandis que les régulateurs redoutent que la technologie ne brouille la frontière entre outils de défense et armes offensives. Une réunion du président de la Réserve fédérale avec les PDG de banques a souligné l’urgence de traiter ces capacités. Les critiques ont déclaré qu’une gouvernance stricte est nécessaire avant que le modèle ne soit déployé à plus grande échelle. [1][4][3]

Anthropic a indiqué que Claude Mythos peut identifier de façon autonome les vulnérabilités et lancer des attaques plus rapidement qu’un expert humain. « Claude Mythos représente une nouvelle génération de modèles d’IA capables de mener des attaques autonomes plus efficacement que jamais », a déclaré Tim Keary de Forbes. L’affirmation selon laquelle le système peut surpasser les humains sur des tâches spécifiques de test d’intrusion a suscité à la fois admiration et inquiétude au sein des cercles de cybersécurité. [2]

En réponse, Anthropic a limité l’accès à la prévisualisation, considérant le modèle comme une technologie à haut risque. « La décision d’Anthropic de restreindre l’accès à son puissant Claude Mythos Preview marque un tournant décisif vers le traitement de l’IA comme des technologies à haut risque nécessitant des structures de gouvernance strictes », a déclaré l’auteur d’une analyse IAPP. L’entreprise a indiqué que ces restrictions visent à prévenir les abus tout en collaborant avec les décideurs sur des normes de sécurité. [3]

Les observateurs du secteur ont déclaré que cette mesure souligne une concentration croissante du pouvoir de l’IA entre les mains de quelques entreprises américaines. « La décision d’Anthropic de limiter la diffusion de Mythos a soulevé des questions sur la concentration du pouvoir de l’IA entre les mains d’un petit nombre d’entreprises américaines », a commenté un analyste d’AOL Finance. Ce sentiment reflète des inquiétudes plus larges selon lesquelles une IA offensive avancée pourrait creuser l’écart entre les institutions bien dotées et les entités plus petites. [1]

Les régulateurs évaluent désormais si les cadres de cybersécurité existants peuvent prendre en compte les menaces générées par l’IA. Les législateurs ont indiqué que de nouvelles exigences de divulgation pour les outils d’IA susceptibles d’être militarisés sont à l’étude, et la Réserve fédérale devrait publier des directives sur l’évaluation des risques au niveau du conseil d’administration pour ces technologies. Le débat indique un virage vers la considération de l’IA avancée comme une infrastructure critique nécessitant une surveillance comparable à celle des secteurs nucléaire ou biotechnologique. [4]

« Claude Mythos représente une nouvelle génération de modèles d’IA capables de mener des attaques autonomes plus efficacement que jamais. » — Tim Keary

Ce que cela signifie : Claude Mythos met en lumière une nouvelle frontière où l’IA peut être militarisée pour la cyber‑offensive, incitant les régulateurs, les institutions financières et les entreprises technologiques à repenser les cadres de risque. La diffusion limitée du modèle indique que les dirigeants du secteur reconnaissent la nécessité de garde‑fous, mais en l’absence de politiques claires, la technologie pourrait encore être utilisée à des fins malveillantes, augmentant les enjeux de la gouvernance mondiale de la cybersécurité.