返回博客

你能用到什么 AI,取决于你是谁 — OpenAI 刚刚给出了第一份 VIP 名单

AIOpenAI网络安全GPT-5.4-Cyber行业观察
封面

OpenAI 这周扔出来一个东西,叫 Trusted Access for Cyber(TAC),顺带发布了一个专用模型 GPT-5.4-Cyber。配套 $10M 的网络安全资助计划。首批签约的单位名单我抄一下:

Bank of America、BlackRock、BNY、Citi、Cisco、Cloudflare、CrowdStrike、Goldman Sachs、iVerify、JPMorgan Chase、Morgan Stanley、NVIDIA、Oracle、Palo Alto Networks、SpecterOps、US Bank、Zscaler。

一口气 17 家。华尔街顶级银行来了 7 家、四大云安全厂全到齐、英伟达和甲骨文也在里面。

这不是一个产品发布。这是 AI 行业第一次公开写出它的身份分层:你是谁,决定了你能用到什么样的 AI。

先说清楚 GPT-5.4-Cyber 到底是什么

这个模型是 GPT-5.4 的微调版本。OpenAI 官方说法:

  • "降低了合法网络安全工作的拒绝边界"
  • "支持二进制逆向工程",可以在不看源码的情况下分析编译后的二进制是否有恶意行为或漏洞
  • 只对 Trusted Access 最高分层的客户开放

翻译成人话:一个可以帮你拆软件、找漏洞、自动化攻击推演的 AI,但你得先证明自己是"好人"才能用

"证明"的流程叫自动化身份核实。你要是一家注册的金融机构、云厂商、网络安全公司或者经 OpenAI 背书的研究组织,你可以申请。你要是个独立研究者、小型咨询公司、或者一个好奇心旺盛的开发者 — 大概率排不到队。

这就是新的分层。

Anthropic 的 Mythos vs OpenAI 的答卷

背景要补一下。Anthropic 前段时间披露过一个叫 Mythos 的能力演化信号 — AI 可以把 5 个以上的独立漏洞组合成一个完整的攻击链,而不是只找到单个 bug。这是"质的跃迁"(用 Dwarkesh 的话)。

Anthropic 的反应是。他们在模型训练层加分类器、加拒绝逻辑、限制 agentic 调用。他们公开讨论过自己的担忧:如果 AI 真的能做 Mythos 级别的组合攻击,攻防平衡会彻底失衡。找漏洞比打补丁容易得多。

OpenAI 的反应是。我不藏能力,我筛用户。GPT-5.4-Cyber 明确"拒绝 Mythos playbook" — 这话的字面意思是模型不会执行 Mythos 式的链式攻击生成。但实际上它描述的是一个更大的策略转变:把风险管理从"模型能力层"转移到"身份验证层"

两家的路径分岔,非常值得琢磨。

Anthropic 在押注:AI 本身的拒绝能力可以被训到足够好。OpenAI 在押注:模型层的拒绝永远会被 jailbreak,真正的闸口是"进入这个模型的人是谁"。

我的判断:OpenAI 这条路在商业上一定会赢,在伦理上会很难看。

17 家护盾阵

为什么商业上一定会赢

因为它匹配了一个既存的企业决策逻辑 — 合规分层

银行不是第一次被分层。SWIFT 有分层、FedWire 有分层、Bloomberg Terminal 有分层。一家银行愿意为一个"只给验证过的金融机构"的 AI 工具付高价,因为它本来就习惯为"身份特权"付钱。JPM 的安全团队拿到 GPT-5.4-Cyber,他们的第一反应不是"这不公平",是"终于有了"。

而对 OpenAI 来说,这套玩法开启了一个之前不存在的市场段位:

  • 分层订阅:普通 API 一个价、认证用户更高一级、Trusted Access 最顶端。这不是按 token 卖,是按身份卖。
  • 合规产品线:监管问"你怎么确认谁在用你的高风险模型",OpenAI 有答案。
  • 生态黏性:一家银行一旦被纳入 TAC,它的 SOC 流程、工单系统、响应剧本都会围绕 GPT-5.4-Cyber 搭起来。切换成本=重建整条安全运营。

这是一门非常好的生意。OpenAI 不再靠"我的模型更聪明"赚钱,它靠"你能用、他不能用"赚钱。

为什么伦理上会难看

因为 AI 普惠的叙事第一次出现了明确的、结构性的反面。

之前我们说"AI 人人可用"不是完全真的,但至少是默认语义。你有 $20 月费就有 GPT,你懂 API 就能调 Claude。现在 OpenAI 在说:不,有些能力只给特定身份

这件事在法律、道德、社会结构上会产生一堆问题。

第一层,能力不平等。大银行有 GPT-5.4-Cyber,小银行没有。JPM 的安全团队可以自动化二进制逆向,一家区域性银行还在手动翻 log。安全能力差距会拉得更大。对监管来说,这是灾难 — 全国 4000 家银行里,被保护得最好的是最不需要保护的那几家。

第二层,身份把关权集中。"谁有资格用"这个问题,现在答案是 OpenAI 的验证流程。不是哪个监管机构、不是任何行业协会,是 OpenAI。这家公司一夜之间变成了网络安全能力的发证机关。它不光定义"好人",它还定义"我认可的好人"。

第三层,研究闭锁。独立安全研究员历来是行业的重要力量。Trail of Bits、Project Zero 这类组织早期都是小团队。现在的 Trusted Access 对这种小团队不友好 — 要么先长大到被 OpenAI 认可,要么出局。一代安全研究的进入门槛抬高了。

我在客户现场看到的反应

我做企业 AI 交付,最近几个月客户问题已经有明显的分叉。

大型金融机构:兴奋。他们的 CISO 问我能不能帮他们把 TAC 的身份接入流程跑通。这对他们是正向礼物 — 他们本来就想要一个"只给自己用"的高能力 AI。

中型客户(城商行、大型制造业、头部互联网公司以下):焦虑。他们不知道自己够不够格上名单。一家股份制银行的 CTO 直接问我:"你觉得我们需要雇一个前 OpenAI 的 compliance 主管来帮我们过审吗?" 这个问题没有标准答案,但它本身说明市场感知到了分层。

小客户(SaaS、初创、独立顾问):被动离场。他们开始思考是不是要换开源模型做安全场景。讽刺的是,开源模型(Qwen、Kimi)反而没有身份门槛,能力稍弱但可以自己微调。TAC 的副作用是把一部分合法需求推向了更难被监管的地方

这三条反应合起来,和 OpenAI 的商业模型完美契合:大客户付高价、中客户焦虑着想办法付、小客户被放弃也无所谓。对安全生态的净效应是负的 — 但对 OpenAI 的财报是正的。

分层隐形墙

AI 的"会员制"刚刚开始

GPT-5.4-Cyber 是第一个,但不会是最后一个。我预判未来 12-18 个月:

  1. GPT-5.4-Bio(生物研究)。现在 OpenAI 对合成生物学相关请求还是一刀切拒绝。下一步一定是"拒绝普通用户,但给大型 Pharma + 国家实验室开放"。商业模型一模一样。
  2. GPT-5.4-Finance 或类似。自动化交易策略、复杂结构化产品定价、反洗钱建模。对高频交易所、大行开放。
  3. Claude 会跟进。Anthropic 现在还守"模型层拒绝"的阵地,但商业压力会让它妥协。它会推出自己的分层产品(可能换个名字,叫 Constitutional Partner Access 之类的)。
  4. 每一层新增一个付费墙,AI 能力市场就被切分一次。三年后,"我用什么 AI" 这个问题的答案会取决于三件事:你工作在哪里、你过了哪些合规审查、你愿意付多少钱。

    对"AI 普惠"叙事的真正冲击

    我不反对分层。Dual-use 风险是真的,GPT-5.4-Cyber 的能力如果给坏人,代价是巨大的。问题不在分层本身,在谁定分层规则

    目前这套规则是单一厂商定的。OpenAI 决定谁进、谁出、哪些能力入选、哪些不入选。没有公开的标准、没有申诉机制、没有外部审计。

    这是一个非常危险的先例。如果三年后 OpenAI、Anthropic、Google 三家都建立了自己的 Trusted Access 体系,且标准互不相同,那么一个小公司想做合法的安全业务,需要同时过三家的审。这个行政成本会压死创新。

    我给自己团队立了一条规矩:我们交付的 AI 产品里,不能有任何一个关键能力只能通过单一 Trusted Access 接入。要么多供应商、要么自托管开源替代、要么重新拆解需求。单点依赖 + 身份依赖 = 双重枷锁。


    留个问题给你想:如果 AI 能力的分发开始按身份分层,一个合理的公共治理体系应该是什么样的?是让监管机构发"AI 信任证"?是让厂商自治但公开标准?还是索性用开源模型做"公共替代"?这个问题没标准答案,但它在未来 5 年会变成产业政策层面的真正的议题。

    参考资料

    • OpenAI, Accelerating the cyber defense ecosystem that protects us all. 2026-04-16.
    • OpenAI, Introducing Trusted Access for Cyber. 2026-04.
    • Dwarkesh Patel, What I learned this week — Mythos and the cybersecurity equilibrium. 2026-04-15.