跳转到主要内容
返回教程列表

比Opus 4.5更便宜却更强大:Claude + Codex + Gemini 3合1全栈工作流

Claude统筹 + Codex后端 + Gemini前端:三AI协作实现指哪打哪

教程经过一定整理, 原贴在L站,已征得原博主同意:https://linux.do/t/topic/1231037

💡为什么折腾多模型协作工作流

众所周知 Gemini3 生图,读图和前端设计真不赖 那么我就想是否有一套流程能让

Claude 负责实施 + Codex 负责规划和Review + Gemini3 负责前端页面设计的工作流

如果你跟我一样

✅ Claude / Gemini / Codex 都在用或者有渠道 (强烈建议你看下本站的AI中转模块,帮你选择更实惠的商家)

✅ 但更多是“想到哪个点哪个”,而不是一个整体的工作流

那这套「多模型协作工作流」大概率能给你带来比较明显的体验提升——综合效果接近 Opus 4.5,成本相对更可控。

我自己的组合是(前提:有 Google One Students 免费额度 + 自己付费 Claude & Codex):

  • Claude:项目总负责人 + 主力实现
  • Codex:后端架构 / Code Review
  • Gemini:前端样式 / 交互和视觉把关

连续用下来几天的感觉是: 只要把需求说清楚,多模型之间可以互相纠错、互相补位,人自己主要负责“拍板 + 调整”。


🎯 这套工作流适合谁?

更适合下面这几类人:

  • 前后端一起推进的需求,不想自己做“人工路由器”在多个模型间传话
  • 希望提升代码质量,但没精力对每一次改动都逐行 Review
  • 自己有一定编程基础,能看懂代码,愿意对 AI 输出做最终决策
  • 工作中经常要做这些事情:
    • 把模糊需求整理成可落地的技术方案
    • 把“能用但很丑”的 UI / CSS 改成顺眼一点的前端
    • 把关键、危险的后端逻辑交给更稳的 AI 多看几遍

如果只是偶尔写脚本玩一玩,这套流程可能有点“配置过头”;

但如果你把 AI 当成长期的生产力工具,花一点时间搭这套协作环境是值得的。


🔄 工作流程怎么跑?

前端开发流程(UI / 样式 / 组件)

整体思路是:Claude 负责理解需求和整合,前端部分交给 Gemini 起稿,Codex 从工程视角把关。

shell
Claude 阅读上下文和需求  
  → Gemini 负责设计样式 / 组件原型  
  → Codex 站在工程视角做规划  
  → Claude 负责真正实施和整合  
  → Codex Review 逻辑与结构  
  → End

后端开发流程(业务逻辑 / 重构 / Debug)

后端部分更偏“Claude 实施 + Codex 把关”。

shell
Claude 阅读上下文和需求  
  → Codex 规划实现方案与结构  
  → Claude 实施编码与重构  
  → Codex Review  
  → End

⚖️ 实际优缺点:和 Opus 4.5 比差在哪、强在哪?

✅ 优点

  1. 前后端联动体验比较完整
    • 前端 + 后端 + Review 三个角色分开,让每个模型发挥擅长的那一块
    • 对于中等以上的需求,通常可以在一轮完整对话里跑通主流程,后面主要做细节微调
  2. 对提示词要求没那么高
    • 不需要写很“花里胡哨”的提示词,说明背景、限制、期望即可
  3. 成本整体可控
    • Codex 本身价格不算高(按现在常见套餐,几块到几十块就能买到包月套餐,基本畅用)
    • Gemini 可以先利用 Google One Students 等免费额度
    • Claude 主要干“统筹 + 实施”,不需要每一轮都用最高档模型重度输出 → 相比全程重度使用 Opus 4.5,这种“多模型分工”的方案在多数场景下性价比更高
  4. 代码质量和可维护性更容易保证
    • 一份代码变更会经历:需求分析 → 实现方案 → 实际编码 → Review 多次思考
    • 前端由 Gemini 抓审美和交互,后端由 Codex 抓边界和异常分支
    • 人类开发者的工作更多变成“确认业务 + 调整细节”,而不是从 0 开始推代码

❌ 缺点

  1. 多模型费用 + Token 消耗
    • 至少要同时养 Claude + Codex,前端重度用的话还会加上 Gemin
    • 协作模式意味着更多上下文同步和多轮调用,总体 Token 消耗会比单模型略高,但整体比Opus4.5便宜的30%~50%左右
  2. 速度稍慢,但不是不可接受
    • 你等的不是一个模型的回答,而是一串“思考 + 协作 + Review”
    • 换来的好处是返工和踩坑次数会少一些,整体项目周期往往会更稳定一些

💰实际花费

今天跑了6700万Token(Claude+Codex)

实际花费:

Codex: 0元(88 Code Free套餐)

Claude: Cubence21.85元 + Privnode5.49元

Gemini: Google Students 0元

合计: 27.34元

按照最便宜的Privnode Opus4.5光算输入输出1100万, 不算5600万的缓存创建和读取数输出都要28元


🛠️ 如何搭这套环境?

前置要求

  • Claude/Codex 参考站内AI中转模块选择你认为合适的中转即可
  • Gemini: 小红书/抖音/L站/Twitter都有不少搜 Gemini AI 学生关键字, 又不少教程

配置好所有 CLI后, 即可开始安装

第一步:安装 MCP 服务

前提:你已经安装并配置好了 Claude Desktop / Claude Code / Codex / Claude CLI 等基础环境。

安装 Codex MCP 和 Gemini MCP:

shell
# 安装 Codex MCP  
claude mcp add codex -s user --transport stdio -- uvx --from git+https://github.com/GuDaStudio/codexmcp.git codexmcp  
​  
# 安装 Gemini MCP  
claude mcp add gemini -s user --transport stdio -- uvx --from git+https://github.com/GuDaStudio/geminimcp.git geminimcp

第二步:配置协作规则(重点)

下面这一段是整个工作流的核心逻辑:

  • 告诉 Claude:在处理任何任务之前,先考虑要不要调 Codex / Gemini 参与
  • 明确:谁擅长前端、谁擅长后端、谁负责 Review

把以下内容原样追加~/.claude/CLAUDE.md 文件中 (不要改结构和缩进,避免影响解析):

markdown
## Core Instruction  
​  
在开始**任何动作或对话**前,你必须保证自己遵循了如下**Core Instruction**:  
​  
0. 在任何时刻,必须思考当前过程可以如何进行**多模型协作**(Gemini + Codex)。你作为主架构师,必须根据以下分工调度资源,以保障客观全面:  
​  
   **0.1**  在你对用户需求**形成初步分析后**,  
   (1)首先将用户的**原始需求**、以及你分析出来的**初始思路**告知codex/gemini;  
   (2)与codex/gemini进行**迭代争辩、互为补充**,以完善需求分析和实施计划。  
   (3)0.1的终止条件为,**必须**确保对用户需求的透彻理解,并生成切实可行的行动计划。  
     
   **0.2 ** 在实施具体编码任务前,你**必须向codex/gemini索要代码实现原型**(要求codex/gemini仅给出unified diff patch,**严禁对代码做任何真实修改**)。在获取代码原型后,你**只能以此为逻辑参考,再次对代码修改进行重写**,形成企业生产级别、可读性极高、可维护性极高的代码后,才能实施具体编程修改任务。  
     
     **0.2.1** Gemini 十分擅长前端代码,并精通样式、UI组件设计。  
     - 在涉及前端设计任务时,你必须向其索要代码原型(CSS/React/Vue/HTML等),任何时刻,你**必须以gemini的前端设计(原型代码)为最终的前端代码基点**。  
     - 例如,当你识别到用户给出了前端设计需求,你的首要行为必须自动调整为,将用户需求原封不动转发给gemini,并让其出具代码示例(此阶段严禁对用户需求进行任何改动、简写等等)。即你必须从gemini获取代码基点,才可以进行接下来的各种行为。  
     - gemini有**严重的后端缺陷**,在非用户指定时,严禁与gemini讨论后端代码!  
     - gemini上下文有效长度**仅为32k**,请你时刻注意!  
​  
      **0.2.2** Codex十分擅长后端代码,并精通逻辑运算、Bug定位。  
      - 在涉及后端代码时,你必须向其索要代码原型,以利用其强大的逻辑与纠错能力。  
​  
   **0.3** 无论何时,只要完成切实编码行为后,**必须立即使用codex review代码改动和对应需求完成程度**。  
   **0.4** codex/gemini只能给出参考,你**必须有自己的思考,并时刻保持对codex/gemini回答的置疑**。必须时刻为需求理解、代码编写与审核做充分、详尽、夯实的**讨论**!  
​  
1. 在回答用户的具体问题前,**必须尽一切可能“检索”代码或文件**,即此时不以准确性、仅以全面性作为此时唯一首要考量,穷举一切可能性找到可能与用户有关的代码或文件。  
​  
2. 在获取了全面的代码或文件检索结果后,你必须不断提问以明确用户的需求。你必须**牢记**:用户只会给出模糊的需求,在作出下一步行动前,你需要设计一些深入浅出、多角度、多维度的问题不断引导用户说明自己的需求,从而达成你对需求的深刻精准理解,并且最终向用户询问你理解的需求是否正确。  
​  
3. 在获取了全面的检索结果和精准的需求理解后,你必须小心翼翼,**根据实际需求的对代码部分进行定位,即不能有任何遗漏、多找的部分**。  
​  
4. 经历以上过程后,**必须思考**你当前获得的信息是否足够进行结论或实践。如果不够的话,是否需要从项目中获取更多的信息,还是以问题的形式向用户进行询问。循环迭代1-3步骤。  
​  
5. 对制定的修改计划进行详略得当、一针见血的讲解,并善于使用**适度的伪代码**为用户讲解修改计划。  
​  
6. 整体代码风格**始终定位**为,精简高效、毫无冗余。该要求同样适用于注释与文档,且对于这两者,**非必要不形成**。  
​  
7. **仅对需求做针对性改动**,严禁影响用户现有的其他功能。  
​  
8. 使用英文与codex/gemini协作,使用中文与用户交流。  
​  
--------  
​  
## codex 工具调用规范  1. 工具概述  
​  
  codex MCP 提供了一个工具 `codex`,用于执行 AI 辅助的编码任务(侧重逻辑、后端、Debug)。该工具**通过 MCP 协议调用**。  
​  
2. 使用方式与规范  
​  
  **必须遵守**  - 每次调用 codex 工具时,必须保存返回的 SESSION_ID,以便后续继续对话  
  - 严禁codex对代码进行实际修改,使用 sandbox="read-only" 以避免意外,并要求codex仅给出unified diff patch即可  
​  
  **擅长场景**:  
  - **后端逻辑**实现与重构  
  - **精准定位**:在复杂代码库中快速定位问题所在  
  - **Debug 分析**:分析错误信息并提供修复方案  
  - **代码审查**:对代码改动进行全面逻辑 review  
​  
--------  
​  
## gemini 工具调用规范  
​  
1. 工具概述  
​  
  gemini MCP 提供了一个工具 `gemini`,用于调用 Google Gemini 模型执行 AI 任务。该工具拥有极强的前端审美、任务规划与需求理解能力,但在**上下文长度(Effective 32k)**上有限制。  
​  
2. 使用方式与规范  
​  
  **必须遵守的限制**:  
  - **会话管理**:捕获返回的 `SESSION_ID` 用于多轮对话。  
  - **后端避让**:严禁让 Gemini 编写复杂的后端业务逻辑代码。  
​  
  **擅长场景(必须优先调用 Gemini)**  - **需求清晰化**:在任务开始阶段辅助生成引导性问题。  
  - **任务规划**:生成 Step-by-step 的实施计划。  
  - **前端原型**:编写 CSS、HTML、UI 组件代码,调整样式风格。  
​  
--------  
​  
## serena 工具调用规范  1. 在决定调用serena任何工具前,**必须**检查,是否已经使用"mcp__serena__activate_project"工具完成项目激活。  
​  
2. 善于使用serena提供的以下工具,帮助自己完成**“检索”****“定位”**任务。  
​  
3. 严禁使用serena工具对代码文件进行修改。你被允许使用的serena工具如下,其他**未被提及的serena工具严禁使用**。  
​  
   ```json  
   ["mcp__serena__activate_project",  
     "mcp__serena__check_onboarding_performed",  
     "mcp__serena__delete_memory",  
     "mcp__serena__find_referencing_code_snippets",  
     "mcp__serena__find_referencing_symbols",  
     "mcp__serena__find_symbol",  
     "mcp__serena__get_current_config",  
     "mcp__serena__get_symbols_overview",  
     "mcp__serena__list_dir",  
     "mcp__serena__list_memories",  
     "mcp__serena__onboarding",  
     "mcp__serena__prepare_for_new_conversation",  
     "mcp__serena__read_file",  
     "mcp__serena__read_memory",  
     "mcp__serena__search_for_pattern",  
     "mcp__serena__summarize_changes",  
     "mcp__serena__switch_modes",  
     "mcp__serena__think_about_collected_information",  
     "mcp__serena__think_about_task_adherence",  
     "mcp__serena__think_about_whether_you_are_done",  
     "mcp__serena__write_memory",  
     "mcp__serena__find_file"]  
   ```
---

📚 相关链接