← 返回列表

OpenAI 因 Axios 供应链事件轮换 macOS 签名证书,这不是小修补,而是 AI 软件分发安全升级

OpenAI 因 Axios 供应链事件轮换 macOS 签名证书,这不是小修补,而是 AI 软件分发安全升级

2026年4月10日 · 校长 · AI

核心摘要

OpenAI 披露,因 Axios npm 包供应链攻击波及其 macOS 应用签名流程,正在撤销并轮换 ChatGPT Desktop、Codex App、Codex CLI 和 Atlas 的签名证书,并要求用户升级到新版本。官方强调暂无用户数据、产品代码或现有安装被入侵的证据,但这件事的重要性在于,它把 AI 厂商的软件供应链风险第一次非常具体地摆到了台前。

【版权说明】本文为中文深度解读与观点整理,基于公开资料综合分析,不是原文逐字翻译。原始内容版权归 OpenAI、Google Cloud Threat Intelligence、The Verge 及相关信源所有。

原始信源:

1) OpenAI(2026-04-10)https://openai.com/index/axios-developer-tool-compromise/

2) Google Cloud Threat Intelligence(OpenAI 文内引用的更广泛事件说明)https://cloud.google.com/blog/topics/threat-intelligence/north-korea-threat-actor-targets-axios-npm-package

3) The Verge(2026-04-10)https://www.theverge.com/ai-artificial-intelligence

一、发生了什么

OpenAI 表示,3 月 31 日发生的 Axios 第三方开发工具供应链攻击,命中了其一个用于 macOS 应用签名流程的 GitHub Actions 工作流。这个流程曾下载并执行恶意的 Axios 1.14.1,而该工作流能够接触到 macOS 应用签名证书与 notarization 材料。受影响范围包括 ChatGPT Desktop、Codex App、Codex CLI 和 Atlas。

官方当前结论是,没有证据显示用户数据被访问,没有证据显示 OpenAI 系统或知识产权被攻破,也没有证据显示已发布软件被篡改。同时,OpenAI 认为签名证书大概率并未被成功外传,但仍按“可能已暴露”标准处理,选择主动撤销并轮换。

二、为什么这事值得高看一眼

表面看,这像是一次常规安全通报。真正值得重视的点在于,问题不是出在模型本身,而是出在 AI 公司越来越依赖的开发流水线、CI/CD、签名和分发链路。对于今天的 AI 厂商来说,桌面端产品、CLI 工具、代理式开发工具越来越重要,一旦签名链路出问题,风险就会从“某个包被投毒”升级为“攻击者可能伪装成官方软件分发恶意程序”。

换句话说,这不是单纯的 npm 安全新闻,而是 AI 软件供应链正在进入“必须按平台级安全事件治理”的阶段。尤其是 Codex CLI 这类开发者工具,一旦被伪装签名,影响的将不仅是普通用户,还可能是开发环境、仓库凭证和企业终端。

三、OpenAI 这次的处理方式释放了什么信号

OpenAI 采取的是偏保守、偏平台治理的处理路径:

  • 立即引入第三方数字取证与应急响应团队。
  • 轮换 macOS 代码签名证书并发布新构建版本。
  • 与 Apple 协作,阻止旧证书继续用于新的 notarization。
  • 给用户留出过渡窗口,到 2026 年 5 月 8 日后,旧签名版本将不再获得支持,且可能无法正常运行。

这说明 OpenAI 的目标不是只把这次事故压下去,而是把“签名材料一旦疑似暴露就整体轮换”做成标准动作。对大模型公司来说,这会越来越像云厂商处理密钥、证书和基础设施凭据那样,成为基础安全运营能力。

四、根因也很有代表性

OpenAI 把根因明确指向工作流配置问题,包括使用 floating tag 而不是固定 commit hash,以及未配置 minimumReleaseAge。这个披露很关键,因为它揭示的不是某家公司的独有漏洞,而是现代软件供应链里极常见、也最容易被忽视的两类错误:

  • 对外部 action 或依赖引用不够固定,导致上游一旦被污染,下游自动继承风险。
  • 对“刚发布的新包”缺少冷却时间策略,给投毒包留下进入生产流程的机会。

这也是为什么这条新闻虽然没有造成已确认的大规模用户损害,仍然具备高价值。它给整个行业补上了一个现实提醒,AI 公司最危险的部分,很多时候不在模型推理栈,而在开发工具链和分发链。

五、编者观察

过去市场谈 AI 安全,更多在谈模型越狱、数据泄露、幻觉和代理失控。但从 2026 年开始,另一个更“传统”却同样致命的战场正在浮出水面:谁能把 AI 软件像银行级、云平台级产品那样安全地构建、签名、分发与更新。

OpenAI 这次没有报告灾难性后果,反而让这条信号更可信。因为它说明头部厂商已经在把供应链安全问题当成必须公开、必须流程化处置的一级事项。对行业而言,这可能比一次新的模型参数刷新更重要。接下来值得继续观察的是,Anthropic、Google、微软和更多 AI 开发工具厂商,是否会跟进公开强化自己的签名、构建和依赖治理策略。