Anthropic 以网络安全为由限制 Mythos 模型访问权限

Anthropic 限制其新 AI 模型 Mythos 的发布,声称存在安全风险。然而,专家指出,此举意在保护利润并阻止竞争对手通过模型蒸馏技术进行模仿。

Anthropic 以网络安全为由限制 Mythos 模型访问权限
生成式AI
9 de 四月 de 2026
15

全球领先的人工智能实验室之一 Anthropic,近日做出了一项战略决策,引发了外界对前沿模型治理背后真实动机的质疑。该公司宣布将严格限制其最新系统 Mythos 的发布,声称该系统识别关键软件漏洞的高级能力可能被恶意行为者利用,从而危害全球数字基础设施。该模型将不会公开发布,而是仅限于向包括亚马逊云科技(AWS)和摩根大通在内的一小部分管理重要服务的大型企业和机构开放。

当前的 AI 网络安全态势

Anthropic 的官方辩护呼应了人们对大型语言模型(LLM)被用于自动化网络攻击的日益增长的担忧。其核心逻辑是,允许这些大型企业利用 Mythos 加固防御,以先于网络犯罪分子利用类似技术实施攻击。据报道,行业主要竞争对手 OpenAI 也在评估为其未来的安全工具采取类似的发布策略,这凸显了一种趋势,即以机构保护为幌子,对最强大的 AI 能力实施“圈地”。

技术分析与 Mythos 有效性的争论

然而,关于 Mythos 是独一无二、无可比拟的工具这一叙述,遭到了行业专家的质疑。AI 安全实验室 Irregular 的首席执行官 Dan Lahav 指出,仅凭发现漏洞并不能保证攻击成功,因为实际的利用过程取决于复杂的因素链。与此同时,安全初创公司 Aisle 展示了利用较小的开源模型同样可以实现与 Mythos 类似的漏洞发现效果。这表明并不存在所谓的“终极安全模型”,效果取决于具体任务和操作系统的技术能力。

商业影响与打击模型蒸馏

限制 Mythos 访问权限的策略,除了安全顾虑外,似乎还有明确的经济考量。目前,前沿实验室与依赖“模型蒸馏”技术的公司之间存在激烈竞争——这是一种利用大型昂贵模型的知识来训练较小模型的过程。exe.dev 的首席执行官 David Crawshaw 认为,对 Mythos 的控制构成了商业壁垒,确保顶尖模型仅限于有利可图的企业协议,而较小的竞争对手则被迫使用二流技术。

AI 生态系统中的冲突

Anthropic 的这一举动发生在针对模型蒸馏的敌意日益加剧之际。近期报告显示,Anthropic 正与谷歌和 OpenAI 联手,试图识别并封锁那些利用其模型训练竞争系统的公司。模型蒸馏对前沿实验室的商业模式构成了直接威胁,因为它极大地削弱了通过数十亿美元的算力和规模投入所获得的竞争优势。通过限制其创新的发布,这些公司不仅控制了安全风险,还保护了其企业合同的价值。

数字基础设施的未来展望

数字安全的未来似乎越来越依赖于对这些 AI 工具的集中控制。尽管对具有高潜在危害的技术在发布时保持谨慎无疑是一种负责任的态度,但安全与市场保护之间的交集使局势变得复杂。Anthropic 并未进一步阐明其发布政策与防止模型蒸馏之间的关系,这让 Mythos 究竟是一项真正的互联网防御措施,还是为了巩固其在企业软件市场霸权地位的手段,留下了悬念。时间将证明这种方法是否会成为行业标准,或者对开放和可访问模型的需求压力是否会迫使这种排他性策略发生改变。

广告
分享
评论 (0)

登录后发表评论

登录

没有账户? 创建账户