OpenAI正在把网络防御访问权限与面向消费者的AI安全规则分开

OpenAI发布了一款名为GPT-5.5-Cyber的专用模型变体,面向经过审查的安全研究人员,这标志着前沿AI公司处理双重用途能力的方式出现了显著转变。根据所提供的报道,该系统通过一个名为“Trusted Access for Cyber”的计划提供,目标对象是保护关键基础设施的防御者,而不是普通公众。

这一举措反映出一个让AI实验室越来越难以忽视的张力。阻止恶意黑客请求的同一套安全机制,也会妨碍正当的防御工作,包括漏洞复现、补丁验证和恶意软件分析。OpenAI的应对方式不是维持单一的通用安全姿态,而是将访问权限分层。

访问模型如何运作

报道称,OpenAI现在使用三级访问体系。公众模型保留标准限制。中间层会放宽过滤器,以支持防御性安全工作。权限最高的GPT-5.5-Cyber则保留给经授权的渗透测试及相关高敏感任务。

OpenAI表示,该系统仍会阻止窃取密码或攻击第三方系统等行为。但来源中提到的示例清楚表明,Cyber变体允许的操作细节程度通常是主流AI系统会拒绝的。在其中一个演示中,模型不仅为已知漏洞生成了利用代码,还对测试服务器发起攻击,接管了机器,并读取回系统信息。

这并不是一个小小的政策调整。它正式承认,先进的网络防御越来越需要能够执行那些在受控环境之外看起来与进攻性技术无异的AI系统。

谁能获得访问权限,以及在什么条件下

OpenAI表示,限制最少的版本仅面向经过审查的关键基础设施防御者。报道中提到的首发合作伙伴包括Cisco、CrowdStrike、Palo Alto Networks、Cloudflare、Intel、Snyk和SentinelOne。通过Codex Security,部分参与大型开源项目的开发者也可获得折扣访问。

随着这些能力开放,公司也在加强用户身份验证。从2026年6月1日起,最高访问层级的个人将需要采用抗钓鱼认证。这一要求表明,实验室把账户被攻破视为风险面的一部分,而不只是模型滥用。