Anthropic 预览了 Claude Mythos,这是一款其称能够在某些黑客与网络安全任务上超越人类的 AI 模型,引发了美国的辩论。[1]
该模型之所以重要,是因为银行及其他金融机构担忧它可能被用于突破防御,而监管机构则担心该技术模糊了防御工具与进攻武器的界限。美联储主席在与银行首席执行官会面时指出,迫切需要应对此类能力。批评者表示,在模型更广泛部署之前,需要严格治理。[1][4][3]
Anthropic 表示 Claude Mythos 能够自主识别漏洞并以比人类专家更快的速度发动攻击。"Claude Mythos 代表了新一代能够更有效进行自主攻击的 AI 模型," Forbes 的 Tim Keary 如是说。该系统在特定渗透测试任务上超越人类的说法,引发了网络安全界的惊叹与警惕。[2]
对此,Anthropic 限制了对预览版的访问,将该模型视为高风险技术。"Anthropic 决定限制其强大 Claude Mythos 预览版的访问,标志着在将 AI 视为需要严格治理结构的高风险技术方面的关键转变," 一位 IAPP 分析作者如此指出。公司表示,此类限制旨在防止滥用,同时与政策制定者合作制定安全标准。[3]
行业观察人士指出,此举凸显了 AI 能力在少数美国公司的集中趋势。"Anthropic 决定限制 Mythos 的发布,引发了关于 AI 权力集中于少数美国公司手中的质疑," AOL Finance 评论员如此表示。这一观点反映了更广泛的担忧,即先进的进攻性 AI 可能扩大资源充足的机构与小型实体之间的差距。[1]
监管机构正评估现有网络安全框架是否能够容纳 AI 驱动的威胁。立法者表示,正在考虑对可能被武器化的 AI 工具制定新的披露要求,且预计美联储将就此类技术的董事会层面风险评估发布指引。此番辩论表明,先进 AI 正被视为需要类似核能或生物技术领域监管的关键基础设施。[4]
“"Claude Mythos represents a new generation of AI models that can conduct autonomous attacks more effectively than ever before." — Tim Keary”
这意味着:Claude Mythos 突显了 AI 可被用于网络进攻的新前沿,促使监管机构、金融机构和科技公司重新思考风险框架。该模型的有限发布表明业界领袖认识到需要防护措施,但若缺乏明确政策,技术仍可能被恶意行为者武器化,提升全球网络安全治理的风险。




