共计 4985 个字符,预计需要花费 13 分钟才能阅读完成。

昨天在刷 GitHub Trending 的时候,看到一个让我眼前一亮的仓库——[[OpenAI]] 官方发布了一个叫 codex-plugin-cc 的项目,用途是让你在 [[Claude Code]] 里直接调用 [[Codex]] 来做代码审查和任务委派。没看错,是 OpenAI 主动给竞争对手 Anthropic 的产品写了一个插件。这在 AI 行业的竞争格局里算是一个非常有意思的动作,值得聊一聊。
这个插件是什么
codex-plugin-cc 是一个开源的 [[Claude Code]] 插件,安装之后会在 Claude Code 的终端里注册一系列 /codex: 开头的斜杠命令。通过这些命令,你可以在不离开 Claude Code 工作环境的前提下,把特定的任务交给 Codex 去执行。本质上就是给你的 Claude Code 工作流里加了一个「第二大脑」,让两个不同公司的 AI 编程助手协同工作。
这个插件在 2026 年 3 月 30 日创建,3 月 31 日正式发布,短短一天就在 GitHub 上收获了超过 5600 个 Star。插件本身使用 JavaScript 编写,基于 Apache 2.0 协议开源,由 OpenAI 的 Dominik Kundel 主导开发。
要使用这个插件,你需要两样东西:一个 [[ChatGPT]] 订阅(包括免费版)或者 OpenAI API Key,以及 Node.js 18.18 或更高版本。插件不会创建新的运行时,而是直接调用你本地已经安装好的 Codex CLI 和 Codex App Server,继承你现有的认证状态、模型配置和 MCP 设置。
核心命令详解
插件提供了六个斜杠命令,按功能可以分为两类:代码审查和任务委派。
代码审查类
/codex:review 是最基础的代码审查命令。它会让 Codex 对你当前的工作进行只读审查,效果和你直接在 Codex 里运行 /review 是一样的。默认情况下它会审查你当前未提交的变更,如果加上 --base main 参数,则会对比你的分支和 main 分支之间的差异来进行审查。
/codex:review # 审查当前未提交的变更
/codex:review --base main # 审查与 main 分支的差异
/codex:review --background # 在后台运行审查
这个命令的价值在于引入了一个「第二意见」。Claude 生成的代码由 Codex 来审查,两个模型有着不同的知识储备和关注点,能互相补盲。在实际使用中,开发者们发现 Codex 更擅长发现代码正确性和质量方面的问题,而 Claude 更擅长发现架构层面和设计品味方面的问题。
/codex:adversarial-review 是更进阶的对抗性审查命令。和普通审查不同,对抗性审查不只是检查代码本身有没有 bug,而是会质疑你选择的实现方案本身是否合理——设计决策对不对、有没有隐藏的假设、是否存在更安全或更简洁的替代方案、在失败场景下会怎样。
/codex:adversarial-review
/codex:adversarial-review --base main 质疑当前的缓存和重试设计是否合理
/codex:adversarial-review --background 检查竞态条件,质疑当前方案的选择
这个命令接受自定义的聚焦方向。你可以在命令后面加上文字描述,告诉 Codex 你希望它从哪个角度来挑战你的实现。这在处理认证逻辑修改、数据库迁移脚本、基础设施配置变更这类高风险操作时特别有价值——这些场景下,真正的风险往往不是语法错误,而是方案本身的假设出了问题。
任务委派类
/codex:rescue 是任务委派的核心命令。它通过一个叫 codex:codex-rescue 的子代理(subagent)把任务交给 Codex 去执行。和审查命令不同,rescue 不是只读的,Codex 可以实际修改代码。
/codex:rescue 调查为什么测试开始失败了
/codex:rescue 用最小的安全补丁修复失败的测试
/codex:rescue --resume 应用上次运行中排名最高的修复方案
/codex:rescue --model gpt-5.4-mini --effort medium 调查不稳定的集成测试
/codex:rescue --model spark 快速修复这个问题
/codex:rescue --background 调查回归问题
这里有几个值得注意的参数。--model 可以指定使用的模型,比如 gpt-5.4-mini 适合需要速度而非深度推理的场景,输入 spark 会映射到 gpt-5.3-codex-spark。--effort 控制推理深度。--resume 可以继续上一次的 Codex 任务,--fresh 则是开一个全新的任务。如果你既不传 --resume 也不传 --fresh,插件会询问你是否要继续当前仓库的最新 rescue 线程。
剩下三个命令用于管理后台任务:/codex:status 查看当前仓库正在运行和最近完成的 Codex 任务;/codex:result 查看已完成任务的最终输出,还会附带 Codex Session ID,你可以用 codex resume <session-id> 直接在 Codex 里继续工作;/codex:cancel 取消正在运行的后台任务。
安装和配置
安装过程很直接。在 Claude Code 终端里依次运行:
# 添加插件市场源
/plugin marketplace add openai/codex-plugin-cc
# 安装插件
/plugin install codex@openai-codex
# 重新加载插件
/reload-plugins
# 检查 Codex 状态
/codex:setup
运行 /codex:setup 时,插件会检查 Codex 是否已安装并完成认证。如果 Codex 还没有安装但你的环境里有 npm,它会提示帮你自动安装。如果 Codex 已安装但还没登录,可以运行 !codex login 完成认证。
安装时会让你选择作用域——用户级别(所有项目可用)、项目级别(仓库协作者可用)还是本地级别(仅当前仓库的当前用户可用)。根据你的实际情况选择即可。
如果你想调整 Codex 的默认模型和推理努力程度,可以在 ~/.codex/config.toml(用户级别)或项目根目录的 .codex/config.toml(项目级别)中配置:
model = "gpt-5.4-mini"
model_reasoning_effort = "xhigh"
审查门功能
插件还提供了一个叫 Review Gate 的可选功能,通过 /codex:setup --enable-review-gate 启用。开启后,插件会在 Claude Code 的 Stop Hook 中注入一个 Codex 审查步骤——每次 Claude 完成一个任务准备停止时,Codex 会自动运行一次针对性审查。如果审查发现问题,Claude 的停止操作会被拦截,让 Claude 先处理这些问题。
这个功能听起来很酷,但官方文档里明确给出了警告:Review Gate 可能会创建一个 Claude 和 Codex 之间的长循环,快速消耗你的使用额度。建议只在你主动监控会话的时候启用。
实际使用场景
在日常开发中,这个插件最自然的使用场景大概有这么几类。
最直接的是「发版前的第二意见」。写完代码让 Claude 帮你优化完之后,跑一次 /codex:review 或者 /codex:adversarial-review,让另一个 AI 大脑从不同角度审视一遍。不同的模型确实会有不同的盲点,这种交叉审查的价值是实打实的。
另一个场景是任务分流。你可以用 Claude Code 的 Opus 模型来做架构规划和复杂功能的实现,然后把一些定位明确的 bug 修复、测试调查这类任务通过 /codex:rescue 交给 Codex 的轻量级模型去处理。相当于一个高级工程师带着一个初级工程师干活,各司其职。
后台任务管理也是一个值得利用的功能。对于多文件变更的代码审查,耗时可能比较长,这时候 --background 参数就很有用。把审查任务丢到后台,继续在 Claude Code 里干别的事情,时不时用 /codex:status 看一眼进度,完成后用 /codex:result 拿结果。
为什么 OpenAI 要做这件事
这个插件背后的商业逻辑其实不难理解。
从市场数据来看,[[Claude Code]] 目前在开发者群体中的采用率领先于 [[Codex]]。Anthropic 报告其年化收入已达 25 亿美元,Claude Code 每天在 GitHub 上产生 13.5 万次提交。Codex 虽然周活跃用户已经达到 160 万(GPT-5.3 Codex 发布后增长了三倍),但在开发者忠诚度上还有差距。VS Code 市场的安装数据也反映了这一点——Claude Code 520 万次安装 vs Codex 490 万次。
既然开发者不愿意切换工具,OpenAI 选择了一个更聪明的策略:走进竞争对手的大门。每次 Claude Code 用户运行 /codex:review,OpenAI 都能收到 API 调用费。累积起来,这是一个不可忽视的收入来源。而且一旦开发者习惯了在工作流中使用 Codex,未来转向 Codex 作为主力工具的摩擦就会大大降低。
从更宏观的角度看,这个插件反映了 AI 编程工具市场正在走向一个有趣的方向——互操作性。开发者不想被绑死在某一个代理上,他们更希望能根据任务特点组合使用不同的工具。OpenAI 押注的是「出现在开发者已有的工作流里」比「让开发者来找我」是更好的增长策略。这和移动互联网时代微信小程序的逻辑有点像——既然用户不愿意下载你的 App,那就把服务嵌入用户已经在用的平台里。
Claude Code 这边其实也不吃亏。插件系统本身就是 Claude Code 在 2025 年推出的功能,Codex 的插件市场反而是三天前才上线的,在这方面 Claude Code 有先发优势。而且对 Claude Code 用户来说,不用切换终端就能获得 Codex 的审查能力,这提升了 Claude Code 作为开发中枢的价值。
需要注意的问题
在使用这个插件之前,有几个点值得留意。
使用额度方面,插件本身是免费开源的,但每次调用 Codex 都会消耗你的 Codex 使用额度或 OpenAI API Token。特别是开启 Review Gate 的情况下,Claude 和 Codex 之间的来回循环可能会快速消耗大量额度,需要谨慎使用。
安全方面,就在插件发布的同一天,安全研究公司 Phantom Labs 披露了 Codex 的一个命令注入漏洞——攻击者可以通过精心构造的分支名在任务创建时注入命令,可能暴露 GitHub OAuth Token。虽然 OpenAI 已经修复了这个问题(加强了输入验证、Shell 转义和 Token 权限范围控制),但这个时间点上的巧合确实让人想多一层:当你把两个 AI 代理的凭证串联在一起时,攻击面也相应扩大了。这个插件复用本地的 Codex 认证,意味着如果 Codex 的安装被攻破,风险会传递到 Claude Code 的环境中。
模型选择方面,不同的任务适合不同的模型。对于简单的 bug 修复和快速调查,gpt-5.4-mini 或 spark 模型在速度和成本上更优;对于需要深度推理的复杂审查,默认模型通常是更好的选择。可以在 config.toml 中为不同项目设置不同的默认配置。
最后
codex-plugin-cc 是一个小工具,但它代表的趋势很大。AI 编程助手之间的竞争正在从「谁的模型更强」转向「谁的生态更开放」。当两个最强的编程 AI 可以在同一个终端里协作时,真正受益的是开发者——你不再需要在 Claude 和 Codex 之间做二选一的决定,而是可以根据任务特点灵活组合。
对于已经在使用 Claude Code 的开发者来说,这个插件值得试一试。特别是 /codex:adversarial-review 这个命令,它提供的不是「检查你的代码有没有 bug」,而是「质疑你的方案选择对不对」——这种层面的审查,在真实的工程团队里通常需要一个经验丰富的同事来做,现在你可以用一条命令完成。
至于 OpenAI 为什么要主动走进竞争对手的地盘,我觉得这恰恰说明了一个道理:在开发者工具的世界里,与其试图取代用户已有的工作流,不如想办法成为其中的一部分。
相关链接
- codex-plugin-cc GitHub 仓库
- OpenAI Codex 官网
- [[Claude Code]] Plugins 文档

