如果你正在使用 OpenAI 的 Codex CLI 进行 AI 辅助编程,可能已经遇到了一个问题:每次调用 Codex 都在烧钱,尤其是处理一些简单的代码格式化、文件重命名这类低风险任务时,用 Claude 或 GPT-4 来做实在有点浪费。CodexSaver 就是为了解决这个问题而生的。
CodexSaver 是什么
CodexSaver 是一个 MCP(Model Context Protocol)工具,它的核心思路很简单:根据任务的风险等级,自动将低风险任务路由到更便宜的模型(如 DeepSeek),而高风险任务仍然使用 Codex。这样既能保证代码质量,又能显著降低成本。
项目地址:https://github.com/fendouai/CodexSaver(419 Stars)
工作原理
CodexSaver 的智能路由逻辑如下:
- 低风险任务(代码格式化、注释生成、简单重构)→ 路由到 DeepSeek
- 中风险任务(函数编写、单元测试)→ 可配置路由目标
- 高风险任务(架构设计、安全相关、核心逻辑)→ 保持使用 Codex
通过这种方式,据项目作者测试,可以将 Codex 的使用成本降低 40%-60%,同时保持代码质量不下降。
安装步骤
1. 克隆项目
git clone https://github.com/fendouai/CodexSaver.git
cd CodexSaver
2. 安装依赖
pip install -r requirements.txt
3. 配置 MCP
运行安装命令,将 CodexSaver 注册为 MCP 工具:
python cli.py install
这会自动修改你的 MCP 配置文件,将 CodexSaver 添加为可用的工具。
4. 配置 API Key
在配置文件中设置你的 DeepSeek API Key:
# 在 ~/.codex-saver/config.yaml 中
deepseek_api_key: "your-deepseek-api-key"
codex_model: "claude-sonnet-4-20250514"
deepseek_model: "deepseek-coder"
5. 验证安装
python cli.py status
如果看到 “CodexSaver is active” 的提示,说明安装成功。
使用场景
以下是一些典型的使用场景:
- 代码格式化:自动将格式化任务路由到 DeepSeek,节省 90% 的成本
- 注释生成:为现有代码生成注释和文档,这类任务不需要最强的模型
- 简单重构:变量重命名、函数提取等机械性重构工作
- 单元测试生成:为现有函数生成测试用例,DeepSeek 完全够用
注意事项
- 需要同时拥有 OpenAI(Codex)和 DeepSeek 的 API Key
- 任务风险等级的判断基于启发式规则,可能存在误判
- 建议在生产环境中先观察一段时间,确认路由策略符合预期
- DeepSeek API 的延迟可能比 Codex 高,对实时性要求高的场景需要注意
简评
CodexSaver 的思路很实用:不是所有编程任务都需要最强的模型。对于日常开发中的大量低风险、机械性工作,用便宜的模型完全足够。这种”智能路由”的理念,可能会成为未来 AI 编程工具的标配。
不过,目前 CodexSaver 还比较新,路由策略的准确性有待验证。建议有兴趣的站长先在非关键项目中试用,确认效果后再在生产环境中使用。
来源:















暂无评论内容