OpenAI 这周扔出来一个东西,叫 Trusted Access for Cyber(TAC),顺带发布了一个专用模型 GPT-5.4-Cyber。配套 $10M 的网络安全资助计划。首批签约的单位名单我抄一下:
Bank of America、BlackRock、BNY、Citi、Cisco、Cloudflare、CrowdStrike、Goldman Sachs、iVerify、JPMorgan Chase、Morgan Stanley、NVIDIA、Oracle、Palo Alto Networks、SpecterOps、US Bank、Zscaler。
一口气 17 家。华尔街顶级银行来了 7 家、四大云安全厂全到齐、英伟达和甲骨文也在里面。
这不是一个产品发布。这是 AI 行业第一次公开写出它的身份分层:你是谁,决定了你能用到什么样的 AI。
这个模型是 GPT-5.4 的微调版本。OpenAI 官方说法:
翻译成人话:一个可以帮你拆软件、找漏洞、自动化攻击推演的 AI,但你得先证明自己是"好人"才能用。
"证明"的流程叫自动化身份核实。你要是一家注册的金融机构、云厂商、网络安全公司或者经 OpenAI 背书的研究组织,你可以申请。你要是个独立研究者、小型咨询公司、或者一个好奇心旺盛的开发者 — 大概率排不到队。
这就是新的分层。
背景要补一下。Anthropic 前段时间披露过一个叫 Mythos 的能力演化信号 — AI 可以把 5 个以上的独立漏洞组合成一个完整的攻击链,而不是只找到单个 bug。这是"质的跃迁"(用 Dwarkesh 的话)。
Anthropic 的反应是紧。他们在模型训练层加分类器、加拒绝逻辑、限制 agentic 调用。他们公开讨论过自己的担忧:如果 AI 真的能做 Mythos 级别的组合攻击,攻防平衡会彻底失衡。找漏洞比打补丁容易得多。
OpenAI 的反应是筛。我不藏能力,我筛用户。GPT-5.4-Cyber 明确"拒绝 Mythos playbook" — 这话的字面意思是模型不会执行 Mythos 式的链式攻击生成。但实际上它描述的是一个更大的策略转变:把风险管理从"模型能力层"转移到"身份验证层"。
两家的路径分岔,非常值得琢磨。
Anthropic 在押注:AI 本身的拒绝能力可以被训到足够好。OpenAI 在押注:模型层的拒绝永远会被 jailbreak,真正的闸口是"进入这个模型的人是谁"。
我的判断:OpenAI 这条路在商业上一定会赢,在伦理上会很难看。
因为它匹配了一个既存的企业决策逻辑 — 合规分层。
银行不是第一次被分层。SWIFT 有分层、FedWire 有分层、Bloomberg Terminal 有分层。一家银行愿意为一个"只给验证过的金融机构"的 AI 工具付高价,因为它本来就习惯为"身份特权"付钱。JPM 的安全团队拿到 GPT-5.4-Cyber,他们的第一反应不是"这不公平",是"终于有了"。
而对 OpenAI 来说,这套玩法开启了一个之前不存在的市场段位:
这是一门非常好的生意。OpenAI 不再靠"我的模型更聪明"赚钱,它靠"你能用、他不能用"赚钱。
因为 AI 普惠的叙事第一次出现了明确的、结构性的反面。
之前我们说"AI 人人可用"不是完全真的,但至少是默认语义。你有 $20 月费就有 GPT,你懂 API 就能调 Claude。现在 OpenAI 在说:不,有些能力只给特定身份。
这件事在法律、道德、社会结构上会产生一堆问题。
第一层,能力不平等。大银行有 GPT-5.4-Cyber,小银行没有。JPM 的安全团队可以自动化二进制逆向,一家区域性银行还在手动翻 log。安全能力差距会拉得更大。对监管来说,这是灾难 — 全国 4000 家银行里,被保护得最好的是最不需要保护的那几家。
第二层,身份把关权集中。"谁有资格用"这个问题,现在答案是 OpenAI 的验证流程。不是哪个监管机构、不是任何行业协会,是 OpenAI。这家公司一夜之间变成了网络安全能力的发证机关。它不光定义"好人",它还定义"我认可的好人"。
第三层,研究闭锁。独立安全研究员历来是行业的重要力量。Trail of Bits、Project Zero 这类组织早期都是小团队。现在的 Trusted Access 对这种小团队不友好 — 要么先长大到被 OpenAI 认可,要么出局。一代安全研究的进入门槛抬高了。
我做企业 AI 交付,最近几个月客户问题已经有明显的分叉。
大型金融机构:兴奋。他们的 CISO 问我能不能帮他们把 TAC 的身份接入流程跑通。这对他们是正向礼物 — 他们本来就想要一个"只给自己用"的高能力 AI。
中型客户(城商行、大型制造业、头部互联网公司以下):焦虑。他们不知道自己够不够格上名单。一家股份制银行的 CTO 直接问我:"你觉得我们需要雇一个前 OpenAI 的 compliance 主管来帮我们过审吗?" 这个问题没有标准答案,但它本身说明市场感知到了分层。
小客户(SaaS、初创、独立顾问):被动离场。他们开始思考是不是要换开源模型做安全场景。讽刺的是,开源模型(Qwen、Kimi)反而没有身份门槛,能力稍弱但可以自己微调。TAC 的副作用是把一部分合法需求推向了更难被监管的地方。
这三条反应合起来,和 OpenAI 的商业模型完美契合:大客户付高价、中客户焦虑着想办法付、小客户被放弃也无所谓。对安全生态的净效应是负的 — 但对 OpenAI 的财报是正的。
GPT-5.4-Cyber 是第一个,但不会是最后一个。我预判未来 12-18 个月:
每一层新增一个付费墙,AI 能力市场就被切分一次。三年后,"我用什么 AI" 这个问题的答案会取决于三件事:你工作在哪里、你过了哪些合规审查、你愿意付多少钱。
我不反对分层。Dual-use 风险是真的,GPT-5.4-Cyber 的能力如果给坏人,代价是巨大的。问题不在分层本身,在谁定分层规则。
目前这套规则是单一厂商定的。OpenAI 决定谁进、谁出、哪些能力入选、哪些不入选。没有公开的标准、没有申诉机制、没有外部审计。
这是一个非常危险的先例。如果三年后 OpenAI、Anthropic、Google 三家都建立了自己的 Trusted Access 体系,且标准互不相同,那么一个小公司想做合法的安全业务,需要同时过三家的审。这个行政成本会压死创新。
我给自己团队立了一条规矩:我们交付的 AI 产品里,不能有任何一个关键能力只能通过单一 Trusted Access 接入。要么多供应商、要么自托管开源替代、要么重新拆解需求。单点依赖 + 身份依赖 = 双重枷锁。
留个问题给你想:如果 AI 能力的分发开始按身份分层,一个合理的公共治理体系应该是什么样的?是让监管机构发"AI 信任证"?是让厂商自治但公开标准?还是索性用开源模型做"公共替代"?这个问题没标准答案,但它在未来 5 年会变成产业政策层面的真正的议题。
参考资料: