一行代码,让 Claude Code / Gemini / Codex 接入任意 LLM
- 大语言模型
- 3天前
- 7热度
- 0评论
在当前的 AI 开发生态中,各大厂商如 OpenAI、Anthropic 和 Google 都推出了自家的 AI 编码工具,如 Codex CLI、Claude Code 和 Gemini CLI。这些工具功能强大,迭代迅速,几乎每周都有新功能上线。然而,对于国内开发者而言,使用这些工具面临诸多挑战,包括网络访问限制、高昂的费用以及协议兼容性问题。本文将探讨这些问题,并介绍如何使用 DemoApp 解决这些问题,实现无缝接入多个 LLM 提供商。
一、AI Coding Agent 的现状
OpenAI、Anthropic 和 Google 等一线 LLM 厂商提供的 AI Coding Agent,如 Codex CLI、Claude Code 和 Gemini CLI,迭代速度非常快,几乎以周为单位更新。这些工具的背后逻辑是将开发者锁定在自家的模型生态内,完成从工具到模型的端到端闭环。数据交互技术协议是锁定工具与模型的重要手段,例如:
- Claude Code 只支持 Anthropic 协议
- Codex CLI 绑定 OpenAI Responses API 协议
- Gemini CLI 依赖 Google GenerateContent 协议
工具越易用,对原厂模型的依赖就越深,迁移成本也越高。
二、AI Coding Agent 的使用问题
尽管各大 LLM 厂商提供了功能强大的 CLI 工具,但国内开发者在使用这些工具时面临几个现实问题:
1. 原厂模型:网络和费用是门槛
- 网络访问限制:Anthropic、OpenAI 和 Google 在国内均无法直接访问,需要代理。特别是 Anthropic,对国内访问有严格限制。
- 高昂费用:原厂旗舰模型的 API 输出价格通常在每百万 Token 20 美元左右,高强度使用成本较高。相比之下,国内的 DeepSeek、GLM、Kimi 和 MiniMax 在价格和访问上有明显优势,部分模型的性能也非常出色。
2. 国产模型:协议支持好,但限速 / 配额是硬伤
- 协议支持:国内的 GLM(智谱)、Kimi(月之暗面)和 MiniMax 等模型提供商陆续推出了 OpenAI 兼容协议和 Anthropic 协议,接入 Claude Code 等工具在技术上已经没有障碍。
- 限速和配额:然而,这些模型普遍有严格的限速和配额限制,重度使用时容易遇到 429 报错、响应变慢或单日配额耗尽等问题,影响使用体验。
3. Codex CLI & Gemini CLI 的协议壁垒:国产模型全军覆没
- 协议不兼容:Codex CLI 使用 OpenAI Responses API,Gemini CLI 使用 Google GenerateContent,而国内主流模型提供商(如 DeepSeek、GLM、Kimi、MiniMax 等)只实现了 OpenAI Chat Completions 兼容层。这意味着,即使拥有这些模型的 API Key,也无法直接接入 Codex CLI 和 Gemini CLI。
4. 三个工具,三套协议,三套配置
- 配置复杂:Claude Code 使用 Anthropic 协议,Codex CLI 使用 Responses API 协议,Gemini CLI 使用 Gemini GenerateContent 协议。如果想将某个模型同时接入这三个工具,需要自己编写协议转换程序,并逐一修改各工具的配置文件。每个工具的配置格式和路径不同,更换模型时需重新配置。
三、什么是 DemoApp?
DemoApp 是一个桌面原生的 AI 网关,它让 Claude Code、Codex CLI、Gemini CLI 等任意 AI 工具无需改动任何配置,就能无缝接入 100+ LLM 提供商。DemoApp 实现了 OpenAI、Anthropic、Gemini 等主流协议的毫秒级协议重写和跨协议工具调用适配。此外,它还提供了负载均衡、语义缓存、访问控制和用量监控等高级功能。
graph TD
A[Claude Code] --> B[Nyro AI Gateway]
C[Codex CLI] --> B
D[Gemini CLI] --> B
E[OpenAI SDK] --> B
F[Anthropic SDK] --> B
G[Gemini SDK] --> B
H[Any HTTP API Client] --> B
B --> I[OpenAI]
B --> J[Anthropic]
B --> K[Google]
B --> L[DeepSeek]
B --> M[MiniMax]
B --> N[xAI]
B --> O[Zhipu]
B --> P[Ollama]四、使用场景对比
场景:将 DeepSeek V3 同时接入 Claude Code、Codex CLI 和 Gemini CLI
1. 之前的做法
# 第二步:修改 Claude Code 配置
vim ~/.claude/settings.json
# 第四步:修改 Codex CLI 配置
vim ~/.codex/auth.json
vim ~/.codex/config.toml
# 第六步:修改 Gemini CLI 配置
vim ~/.gemini/.env
vim ~/.gemini/settings.json
2. 使用 DemoApp 的做法
第一步:Providers → New,填入 DeepSeek 的 Base URL 和 API Key
第二步:Routes → New,设置虚拟模型名,选择 DeepSeek 作为目标
第三步:Connect → 选择 Claude Code / Codex CLI / Gemini CLI,点击 Sync> 后续更换模型或提供商,只需在路由配置中修改目标即可,客户端无需做任何调整。
三个工具、三套协议、五个配置文件 → 三步操作、一次同步、客户端零改动。
五、快速上手
1. 安装
macOS(推荐)
brew tap nyroway/nyro
brew install --cask nyro其他平台
curl -fsSL https://raw.githubusercontent.com/nyroway/nyro/master/scripts/install/install.sh | bash
irm https://raw.githubusercontent.com/nyroway/nyro/master/scripts/install/install.ps1 | iex也可以直接从 GitHub Releases 下载对应平台的安装包,支持 macOS、Windows 和 Linux,涵盖 Intel 和 ARM 架构。
安装完成后启动应用:
2. 配置
第一步:创建提供商
点击 提供商 → 新增提供商,通过快捷选项选择目标提供商。可选供应商已预设基础配置,只需填写 名称 和 API Key,点击 创建 即可。
> 💡 如果厂商的 Base URL 需要代理访问,可以在 系统设置 → 代理 中开启代理转发。
第二步:创建路由
完成提供商创建后,点击 路由 → 新增路由,填写 名称、虚拟模型 ID,选择 目标提供商,点击 创建 即可。
> 路由支持以下进阶能力: > - 负载均衡:自动分配请求到多个提供商,提高可用性和性能。 > - 语义缓存:缓存常用请求结果,减少重复调用,节省资源。 > - 访问控制:设置访问权限,保护敏感数据。 > - 用量监控:实时监控 API 调用情况,帮助优化成本。
总结
通过 DemoApp,开发者可以轻松解决 AI Coding Agent 的网络访问、费用和协议兼容性问题。无论是接入原厂模型还是国产模型,DemoApp 都能提供无缝的协议转换和管理功能,简化配置过程,提高开发效率。建议开发者尝试使用 DemoApp,体验其带来的便捷和高效。