# Claude Code 接入第三方 API（终端命令版）

> 目标：不改任何配置文件（不动 `~/.claude/settings.json`、不动 `~/.zshrc`），只在终端里敲几行 `export` 命令，立刻让 Claude Code 用智谱 GLM-5.1 / DeepSeek / Kimi 等第三方模型。
> 适用场景：临时换模型测试、录视频时切换演示、不想动全局配置。

---

## 核心原理

Claude Code 启动时读取这几个环境变量决定调用哪个 API：

| 环境变量 | 作用 |
|---|---|
| `ANTHROPIC_BASE_URL` | API 端点（指向第三方的 Anthropic 兼容地址） |
| `ANTHROPIC_AUTH_TOKEN` | 第三方 API key（注意是 `AUTH_TOKEN` 不是 `API_KEY`） |
| `ANTHROPIC_DEFAULT_OPUS_MODEL` | 当 Claude Code 想用 Opus 时用什么模型 |
| `ANTHROPIC_DEFAULT_SONNET_MODEL` | 当 Claude Code 想用 Sonnet 时用什么模型 |
| `ANTHROPIC_DEFAULT_HAIKU_MODEL` | 当 Claude Code 想用 Haiku 时用什么模型 |

**只要在启动 `claude` 之前 export 这几个变量，当前终端窗口里 Claude Code 就走第三方模型。**
关闭终端、重开就回到默认（连官方 Claude）。

---

## 智谱 GLM-5.1（最常用）

### 准备
- 注册：https://bigmodel.cn/
- 拿 API Key：https://bigmodel.cn/usercenter/proj-mgmt/apikeys
- 复制 API Key（形如 `xxx.yyy`）

### macOS / Linux 终端

```bash
export ANTHROPIC_BASE_URL=https://open.bigmodel.cn/api/anthropic
export ANTHROPIC_AUTH_TOKEN=你的智谱APIKey
export ANTHROPIC_DEFAULT_OPUS_MODEL=glm-5.1
export ANTHROPIC_DEFAULT_SONNET_MODEL=glm-5.1
export ANTHROPIC_DEFAULT_HAIKU_MODEL=glm-4.5-air
claude
```

5 行敲完直接 `claude` 启动，进入 Claude Code 后右上角应该显示 `glm-5.1`。

### Windows PowerShell

```powershell
$env:ANTHROPIC_BASE_URL = "https://open.bigmodel.cn/api/anthropic"
$env:ANTHROPIC_AUTH_TOKEN = "你的智谱APIKey"
$env:ANTHROPIC_DEFAULT_OPUS_MODEL = "glm-5.1"
$env:ANTHROPIC_DEFAULT_SONNET_MODEL = "glm-5.1"
$env:ANTHROPIC_DEFAULT_HAIKU_MODEL = "glm-4.5-air"
claude
```

### Windows CMD

```cmd
set ANTHROPIC_BASE_URL=https://open.bigmodel.cn/api/anthropic
set ANTHROPIC_AUTH_TOKEN=你的智谱APIKey
set ANTHROPIC_DEFAULT_OPUS_MODEL=glm-5.1
set ANTHROPIC_DEFAULT_SONNET_MODEL=glm-5.1
set ANTHROPIC_DEFAULT_HAIKU_MODEL=glm-4.5-air
claude
```

---

## 一键启动函数（终端贴一次，往后用别名）

如果你想以后只敲 `claude-glm` 就自动接入 GLM，把下面这段贴到当前终端（**仅当前会话有效**，不写入配置文件）：

### macOS / Linux

```bash
claude-glm() {
  ANTHROPIC_BASE_URL=https://open.bigmodel.cn/api/anthropic \
  ANTHROPIC_AUTH_TOKEN=你的智谱APIKey \
  ANTHROPIC_DEFAULT_OPUS_MODEL=glm-5.1 \
  ANTHROPIC_DEFAULT_SONNET_MODEL=glm-5.1 \
  ANTHROPIC_DEFAULT_HAIKU_MODEL=glm-4.5-air \
  claude "$@"
}
```

之后任何时候在这个终端窗口里输入 `claude-glm` 即接入 GLM；输入 `claude` 还是用官方默认配置。

### Windows PowerShell

```powershell
function claude-glm {
  $env:ANTHROPIC_BASE_URL = "https://open.bigmodel.cn/api/anthropic"
  $env:ANTHROPIC_AUTH_TOKEN = "你的智谱APIKey"
  $env:ANTHROPIC_DEFAULT_OPUS_MODEL = "glm-5.1"
  $env:ANTHROPIC_DEFAULT_SONNET_MODEL = "glm-5.1"
  $env:ANTHROPIC_DEFAULT_HAIKU_MODEL = "glm-4.5-air"
  claude $args
}
```

---

## 验证生效

启动 `claude` 后输入 `/status` 或在对话框里随便问一句：

```
你是哪个模型？
```

GLM-5.1 会回答自己是 GLM 系列模型，不会自称 Claude。也可以用 `/status` 查看当前 model 字段。

---

## 其他常见第三方 API

下面这些也都支持 Anthropic 兼容端点，**改 BASE_URL + AUTH_TOKEN + MODEL 三件套即可**：

### DeepSeek
```bash
export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic
export ANTHROPIC_AUTH_TOKEN=你的DeepSeek-APIKey
export ANTHROPIC_DEFAULT_SONNET_MODEL=deepseek-chat
export ANTHROPIC_DEFAULT_OPUS_MODEL=deepseek-reasoner
```

### Kimi（月之暗面）
```bash
export ANTHROPIC_BASE_URL=https://api.moonshot.cn/anthropic
export ANTHROPIC_AUTH_TOKEN=你的Moonshot-APIKey
export ANTHROPIC_DEFAULT_SONNET_MODEL=kimi-k2-turbo-preview
export ANTHROPIC_DEFAULT_OPUS_MODEL=kimi-k2-turbo-preview
```

### 通义千问 Qwen
```bash
export ANTHROPIC_BASE_URL=https://dashscope.aliyuncs.com/api/v2/apps/anthropic
export ANTHROPIC_AUTH_TOKEN=你的DashScope-APIKey
export ANTHROPIC_DEFAULT_SONNET_MODEL=qwen3-max
export ANTHROPIC_DEFAULT_OPUS_MODEL=qwen3-max
```

### 火山引擎 方舟（豆包 Seed 2.0 Pro）

#### 准备
- 注册火山引擎方舟：https://www.volcengine.com/product/ark
- 拿 API Key：https://console.volcengine.com/ark/region:ark+cn-beijing/apiKey
- API Key 形如 36 位 UUID（`xxxxxxxx-xxxx-...`）

#### macOS / Linux 终端

```bash
export ANTHROPIC_BASE_URL=https://ark.cn-beijing.volces.com/api/coding
export ANTHROPIC_AUTH_TOKEN=<你的 ARK API Key>
export ANTHROPIC_DEFAULT_OPUS_MODEL=doubao-seed-2-0-pro-260215
export ANTHROPIC_DEFAULT_SONNET_MODEL=doubao-seed-2-0-pro-260215
export ANTHROPIC_DEFAULT_HAIKU_MODEL=doubao-seed-2-0-pro-260215
claude
```

#### Windows PowerShell

```powershell
$env:ANTHROPIC_BASE_URL = "https://ark.cn-beijing.volces.com/api/coding"
$env:ANTHROPIC_AUTH_TOKEN = "<你的 ARK API Key>"
$env:ANTHROPIC_DEFAULT_OPUS_MODEL = "doubao-seed-2-0-pro-260215"
$env:ANTHROPIC_DEFAULT_SONNET_MODEL = "doubao-seed-2-0-pro-260215"
$env:ANTHROPIC_DEFAULT_HAIKU_MODEL = "doubao-seed-2-0-pro-260215"
claude
```

#### 模型选择

| 模型 ID | 定位 | 何时用 |
|---|---|---|
| `doubao-seed-2-0-pro-260215` | 通用旗舰，多模态+reasoning | 默认推荐，平衡效果与成本 |
| `doubao-seed-2-0-code-preview-260215` | 编程专精 | 写代码任务多时切这个 |
| `doubao-seed-2-0-lite-260215` | 轻量+多模态 | 走图片/视频输入或便宜跑 |

> 端点 `https://ark.cn-beijing.volces.com/api/coding` 是火山方舟的 **Anthropic 兼容**端点，**不是** OpenAI 兼容那个 `/v3` 端点。这是 Claude Code 专用，路径不要写错。

> API Key 拿到后请妥善保管。如果你的 Key 不慎泄漏，立刻去控制台删除并重新生成。

### 本地 Ollama（这次 AMD 视频用的）
```bash
ollama launch claude
```
一行就够了——Ollama v0.14+ 自带这个命令，会自动设好端点 + 模型。

---

## 常见踩坑

| 症状 | 原因 | 解决 |
|---|---|---|
| 启动 `claude` 报 401 | `ANTHROPIC_API_KEY` 没清掉，跟 `ANTHROPIC_AUTH_TOKEN` 冲突 | 同时 `unset ANTHROPIC_API_KEY` |
| 报「Model not found」 | 模型名拼错或大小写不对 | 必须全小写 `glm-5.1`，不是 `GLM-5.1` |
| 仍然连官方 Claude | base URL 末尾多/少了斜杠 | 严格按文档给的 URL，不要自加 `/v1` |
| 走代理时连不上国内 API | `ALL_PROXY` 把请求送出墙 | 加一行 `unset ALL_PROXY HTTP_PROXY HTTPS_PROXY` |

---

## 总结：最简单的一行命令

录视频或日常临时换模型时，下面这一行直接复制（替换 API Key）：

```bash
ANTHROPIC_BASE_URL=https://open.bigmodel.cn/api/anthropic ANTHROPIC_AUTH_TOKEN=你的APIKey ANTHROPIC_DEFAULT_SONNET_MODEL=glm-5.1 claude
```

就一行，**不污染当前 shell 环境**（变量只在 `claude` 这一个进程里有效），用完关了什么痕迹都不留。
