
未经授权访问的指控使 Anthropic 的网络安全 AI 推广受到审视
Anthropic 表示,正在调查一份报告,该报告称未经授权的用户通过第三方供应商环境访问了其 Claude Mythos Preview 网络安全工具,同时称尚未发现其自身系统受到影响的证据。
- Anthropic 正在调查 Claude Mythos Preview 遭未经授权访问的报道。
- 公司表示尚未发现其自身系统受到影响的证据。
所有标记为「AI security」的文章

Anthropic 表示,正在调查一份报告,该报告称未经授权的用户通过第三方供应商环境访问了其 Claude Mythos Preview 网络安全工具,同时称尚未发现其自身系统受到影响的证据。

Mozilla 表示,Anthropic 的 Mythos Preview 提前接入帮助其识别了 Firefox 150 中的 271 个安全漏洞,这进一步加剧了关于先进 AI 是否会改变防御方与攻击方之间平衡的争论。

Anthropic 的最新模型 Mythos 仅向少数组织开放,原因是内部和外部测试表明,它能够以比前代模型更高的水平自主利用漏洞

研究人员披露了一个现已修复的提示注入问题,该问题曾允许 Apple 的设备端大语言模型绕过限制并执行由攻击者控制的操作。
AI News 的一份新报告认为,现代 AI 系统会创造传统安全模型原本无法应对的攻击面,推动安全团队转向 AI 专属的控制措施和思维方式。
OpenAI publishes its design principles for protecting AI agents against prompt injection and social engineering in agentic workflows.
Anthropic has raised alarms about industrial-scale distillation attacks against its Claude AI model, where competitors and third parties systematically extract Claude's capabilities to train cheaper rival systems. The revelation highlights a growing threat to AI companies' intellectual property and business models.