Claude Code模型切换国产模型本地模型OllamaGLMDeepSeekGemini

Claude Code 切换模型完整教程 - 国产、本地、自定义全方案

Claude Code 怎么切换模型?本文详解切换 Opus / Sonnet / Haiku、接入 GLM / Gemini / DeepSeek / Ollama 本地模型、自定义 base URL 配置。

· 阅读约 15 分钟

很多人装好 Claude Code 之后,第一个想问的就是 Claude Code 怎么切换模型。原因很多:有人想从默认的 Sonnet 切到 Opus 跑更难的任务,有人想 Claude Code 换模型 接入国产大模型省钱,还有人需要在内网用本地模型。ClaudeCode 模型选择有哪些ClaudeCode 接入本地模型 要不要走 Ollama、Claude Code 接入国内模型必须要代理吗——这些问题本文一次说清。

本文覆盖三种主流场景:在 Anthropic 官方模型之间切换、接入 DeepSeek / GLM / Gemini 等第三方 API、以及通过 Ollama 接入本地模型实现私有化。所有命令、配置示例都按真实可用的方式给出,截至本文撰写时有效,具体语法以官方文档为准。

Claude Code 用的什么模型 —— 默认配置

Claude Code 是 Anthropic 自己出的命令行编程助手,所以默认调用 Anthropic 的 Claude 系列。开箱即用的三个档位是:

档位模型家族适用场景
OpusClaude Opus 系列复杂推理、跨文件重构、架构决策
SonnetClaude Sonnet 系列日常编码、默认首选
HaikuClaude Haiku 系列简单补全、速度敏感任务

具体到当前版本号(Opus 4.6 / 4.7、Sonnet 4.6 等),以官方公告为准。Claude Code 启动时默认走 Sonnet 档位,因为它在能力和成本上最均衡。

Claude Code 切换模式有哪些场景

Claude Code 切换模式 主要分三类,理解清楚再配置不会乱:

  1. 在 Anthropic 官方模型之间切换:Opus ↔ Sonnet ↔ Haiku,账号、API key 都不变。
  2. 切换到第三方 API:接入 DeepSeek、GLM、Gemini、Qwen 等,需要兼容层。
  3. 切换到本地模型:接入 Ollama、vLLM、LM Studio 等本地推理服务。

后两种本质相同:都是把 ANTHROPIC_BASE_URL 指向另一个兼容 Anthropic 协议的端点。理解这个原理,ClaudeCode 自定义模型步骤详解 就只剩配置细节了。


切换 Anthropic 官方模型:三种方法

方法一:交互式 /model 命令

进入 Claude Code 会话后,直接输入:

/model

会弹出可选模型列表,选一个回车即可。这是最快的临时切换方式,Claude Code 切换模型 在会话中随时可用。

方法二:启动参数 --model

启动时直接指定:

claude --model claude-opus-4-7
claude --model claude-sonnet-4-6
claude --model claude-haiku-4-5

具体模型 ID 字符串以官方文档为准,截至本文撰写时大体遵循 claude-<family>-<version> 格式。

方法三:settings.json 持久化

编辑 ~/.claude/settings.json(Windows 为 %USERPROFILE%\.claude\settings.json):

{
  "model": "claude-sonnet-4-6"
}

这样每次启动都默认用这个模型,省得每次手动切。


Claude Code 接入第三方 API 的原理

ClaudeCode 能用其他模型吗ClaudeCode 能接入其他模型吗——答案是能,但要理解机制。

Claude Code 客户端发请求的协议是 Anthropic Messages API。只要某个服务(自家或第三方)暴露同样格式的 HTTP 接口,把 ANTHROPIC_BASE_URL 指过去就能用。整个流程:

Claude Code 客户端
     │  (Anthropic Messages API 格式)

ANTHROPIC_BASE_URL(自定义端点)


真实模型(DeepSeek / GLM / Ollama 等)

中间通常会有一层兼容转换。常见方案:

  • 官方原生兼容:少数厂商直接提供 Anthropic 兼容端点。
  • 协议转换网关:用 LiteLLM 这类网关把 OpenAI 协议转 Anthropic 协议。
  • 代理服务:第三方中转服务(不少 “Claude API 中转” 站点提供)。

Claude Code 接入国内模型完整步骤

通用三步骤

无论接 DeepSeek、GLM、Qwen,ClaudeCode 接入国内大模型 都是这三步:

1. 拿到国内厂商的 API key

去对应平台注册账号、实名、创建 key:

  • DeepSeek:platform.deepseek.com
  • 智谱 GLM:bigmodel.cn / open.bigmodel.cn
  • 通义千问:dashscope.aliyun.com

2. 准备兼容层(如需要)

如果该厂商已提供 Anthropic 兼容端点,跳过这步。如果只提供 OpenAI 兼容端点,本地跑一个 LiteLLM:

pip install litellm
litellm --model deepseek/deepseek-chat --port 4000

3. 配置环境变量或 settings.json

# macOS / Linux
export ANTHROPIC_BASE_URL=https://your-gateway.example.com
export ANTHROPIC_API_KEY=sk-your-key

# Windows PowerShell
$env:ANTHROPIC_BASE_URL = "https://your-gateway.example.com"
$env:ANTHROPIC_API_KEY = "sk-your-key"

或者写进 settings.json

{
  "env": {
    "ANTHROPIC_BASE_URL": "https://your-gateway.example.com",
    "ANTHROPIC_API_KEY": "sk-your-key"
  }
}

启动 claude 验证:随便问一个问题,看返回内容风格判断是哪家模型,或者让它回答”你是谁、哪家公司训练的”做反向校验。

Claude Code 接入国内模型必须要代理吗

不需要墙外代理。接入国产模型本质上是直连国内厂商的 API 服务器,全程国内网络,反而比连 Anthropic 官方更快、更稳。代理只在你接 OpenAI、Anthropic、Gemini 等海外 API 时才需要。


接入 GLM 4.6 实测效果

ClaudeCode 接入 GLM4.6 真实效果 是很多国内用户关心的点。GLM 4.6 是智谱清言的新一代模型,编程能力相比早期版本进步明显。

实测对照(仅作主观参考,不代表官方基准):

维度Claude OpusGLM 4.6备注
单文件代码生成优秀良好GLM 偶尔会偷懒不写完
跨文件重构优秀中等Opus 上下文记得更牢
中文注释/沟通良好优秀GLM 中文表达更自然
工具调用稳定性优秀良好GLM 偶有格式偏差
价格显著更低适合预算敏感

结论:日常 90% 任务 GLM 4.6 够用,复杂架构问题切回 Opus。


接入 Gemini / Gemini Pro

ClaudeCode 接入 GeminiClaudeCode 接入 GeminiPro 路径是:

Claude Code → LiteLLM Gateway → Google Gemini API

LiteLLM 配置示例 litellm_config.yaml

model_list:
  - model_name: claude-3-5-sonnet-20241022
    litellm_params:
      model: gemini/gemini-2.0-flash-exp
      api_key: os.environ/GEMINI_API_KEY

启动:

litellm --config litellm_config.yaml --port 4000

然后把 ANTHROPIC_BASE_URL 指向 http://localhost:4000。注意 Gemini API 国内不能直连,要么用海外服务器跑 LiteLLM,要么用合规中转。


接入 DeepSeek

DeepSeek 在国内编程模型里口碑很好,ClaudeCode 接入 DeepSeek 配置:

# litellm_config.yaml
model_list:
  - model_name: claude-3-5-sonnet-20241022
    litellm_params:
      model: deepseek/deepseek-chat
      api_key: os.environ/DEEPSEEK_API_KEY
      api_base: https://api.deepseek.com

DeepSeek-V3 通用对话强,DeepSeek-Coder 系列在代码任务上更专一。预算紧、想要”够用即可”的选 DeepSeek 性价比极高。


Claude Code 接入 Ollama 本地模型

ClaudeCode 接入 OllamaClaudeCode 接入 Ollama 本地模型 是真正实现 Claude Code 本地模型 的核心方案。

完整流程

1. 安装 Ollama 并拉模型

# 安装 Ollama(macOS / Linux)
curl -fsSL https://ollama.com/install.sh | sh

# Windows 去 ollama.com 下安装包

# 拉一个工具调用支持比较好的模型
ollama pull qwen2.5-coder:14b
# 或
ollama pull llama3.1:8b

2. 跑兼容网关

Ollama 自带 OpenAI 兼容接口(/v1 路径),但 Claude Code 需要 Anthropic 协议,所以中间还要 LiteLLM:

# litellm_config.yaml
model_list:
  - model_name: claude-3-5-sonnet-20241022
    litellm_params:
      model: ollama/qwen2.5-coder:14b
      api_base: http://localhost:11434
litellm --config litellm_config.yaml --port 4000

3. 配 Claude Code

{
  "env": {
    "ANTHROPIC_BASE_URL": "http://localhost:4000",
    "ANTHROPIC_API_KEY": "sk-fake-local-key"
  }
}

API key 随便填一个字符串就行,本地服务不校验。

ClaudeCode 接入本地模型无法创建文件的常见原因

很多人接好 Ollama 后发现 ClaudeCode 接入本地模型无法创建文件、不会执行 bash 命令、写代码不落盘。原因几乎都集中在以下几点:

症状原因解决
完全不调用工具模型不支持 function calling换 Qwen 2.5 Coder / Llama 3.1 等支持工具的版本
调用工具格式错乱小模型(7B 以下)能力不够升到 14B / 32B 或更大
调一半卡住上下文窗口爆了减小输入或换大窗口模型
Ollama 版本旧function calling 支持不完整升级 Ollama 到最新
LiteLLM 转换 bug中间层格式问题升级 LiteLLM,看日志排查

重点:小于 7B 的模型基本指望不上做完整编程任务,至少上 13B / 14B 才能勉强用。


自定义 base URL 完整步骤详解

ClaudeCode 自定义模型步骤详解 总结一份通用模板:

# 1. 设置环境变量
export ANTHROPIC_BASE_URL="https://your-endpoint.example.com"
export ANTHROPIC_API_KEY="your-key"

# 2. 验证端点可达
curl -X POST $ANTHROPIC_BASE_URL/v1/messages \
  -H "x-api-key: $ANTHROPIC_API_KEY" \
  -H "anthropic-version: 2023-06-01" \
  -H "content-type: application/json" \
  -d '{"model":"claude-3-5-sonnet-20241022","max_tokens":100,"messages":[{"role":"user","content":"hi"}]}'

# 3. 启动 Claude Code
claude

如果第二步 curl 都不通,那肯定是端点或 key 配错,不用怀疑 Claude Code 本身。


各模型编程能力对照

ClaudeCode 哪个模型最强ClaudeCode 哪个模型编程 最好用——主观对照表,仅供参考:

模型编程能力工具调用中文价格适合谁
Claude Opus顶级顶级优秀复杂任务、不差钱
Claude Sonnet优秀优秀优秀日常默认
Claude Haiku良好良好优秀便宜简单/批量任务
GPT-4 系列优秀优秀优秀中-贵替代方案
Gemini 2.x优秀良好良好长上下文
DeepSeek-V3优秀良好优秀便宜性价比首选
GLM 4.6良好良好优秀便宜国内合规
Qwen 2.5 Coder良好中等优秀本地免费本地化
Llama 3.1中等中等一般本地免费英文场景

哪个模型适合什么场景

  • 架构设计、跨文件重构、复杂调试:Claude Opus,没有之一。
  • 日常 80% 编码任务:Claude Sonnet 或 DeepSeek-V3。
  • 批量、速度敏感、补全类:Claude Haiku 或 GLM Flash。
  • 长文档、超大代码库:选上下文窗口最大的版本(Gemini、Claude Opus 都很强)。
  • 完全离线 / 内网:Qwen 2.5 Coder 14B+ 本地跑。
  • 预算极度敏感:DeepSeek、GLM,国内直连不要代理。

FAQ

ClaudeCode 免费模型 有哪些选择?

严格意义上”免费”的方案:

  1. 本地 Ollama 跑 Qwen / Llama(硬件成本)
  2. 部分国产厂商的免费试用 quota
  3. Gemini 有限免费 tier(需海外网络)

Anthropic 官方没有完全免费的 API tier,只有部分免费消息额度(具体看官方政策)。

ClaudeCode 接入 Cursor 怎么搞?

Cursor 和 Claude Code 是两个独立产品,“接入”通常指:

  • 在 Cursor 编辑器里使用 Claude 模型(Cursor 设置里直接选)
  • 在 Cursor 的内置终端里跑 Claude Code(terminal 里启动 claude 即可)

后者其实就是把 Claude Code 当成普通 CLI 用,跟 Cursor 本身没接管关系。

Claude Code 切换模型会丢上下文吗?

/model 命令在同一会话里切换,上下文保留。重新启动 claude 进程会开新会话。

能用 ChatGPT (OpenAI) 模型吗?

可以,路径同 Gemini:LiteLLM 转协议即可。但要注意 OpenAI 国内不能直连,要走海外服务器。

Claude Code 模型有多大?

Claude Code 是客户端工具,本身只有几十 MB。真正的模型在云端运行(接 Anthropic 时)或本地 Ollama(接本地时)。Claude 系列模型参数规模 Anthropic 没完全公开,业界估计 Opus 在数千亿参数级别,以官方为准。


小结

Claude Code 切换模型 的关键就一句话:ANTHROPIC_BASE_URL + 对应 API key。在 Anthropic 内部切档位用 /model,跨平台切走兼容网关(LiteLLM 是万金油)。

国内用户最务实的路径:日常用 Sonnet(或国产 GLM / DeepSeek 省钱),难题切 Opus,敏感数据切本地 Ollama + Qwen 2.5 Coder 14B。三个场景配三套 settings.json profile,需要时切换即可。