BeEye
Documentation

把 BeEye 接进你已经在用的工具

Claude Code、Cursor、Cline、Codex、Aider……
每个工具两三行配置,现有代码和 agent 流程完全不用动。

开始

三分钟上手

注册 → 创建 API Key → 把 base URL 指向 BeEye。现有代码不用改一行。

1
注册页 创建账户,注册免费。
2
进入 控制台 → API 密钥,点击「新建密钥」,复制 sk-beeye-...
3
从下面挑一个你在用的工具,按照对应章节粘贴配置。
curl · 第一次请求
curl https://beeye.com/v1/chat/completions \
  -H "Authorization: Bearer sk-beeye-..." \
  -H "Content-Type: application/json" \
  -d '{"model":"gpt-5.4","messages":[{"role":"user","content":"Hi"}]}'
Anthropic 协议 · 旗舰

Claude Code

BeEye 原生支持 Anthropic Messages 协议,Claude Code 只需改三个环境变量 就能用 GPT-5.4 驱动所有内建工具(Bash、Read、Write、Edit...)。

1
设置环境变量(推荐加到 ~/.bashrc~/.bashrc):
~/.bashrc
export ANTHROPIC_BASE_URL="https://beeye.com"
export ANTHROPIC_AUTH_TOKEN="sk-beeye-..."
export ANTHROPIC_MODEL="gpt-5.4"
export ANTHROPIC_SMALL_FAST_MODEL="gpt-5.4"
2
重新打开终端,或 source ~/.bashrc
3
直接运行 claude,或非交互模式 claude -p “...”
验证
claude -p "What is 47 * 83?"
# → 3901 (3 turns, full agent loop)
必须设 ANTHROPIC_SMALL_FAST_MODEL: Claude Code 内部有两个模型:ANTHROPIC_MODEL 走主对话,ANTHROPIC_SMALL_FAST_MODEL 走标题生成 / 上下文压缩 / 内部检查等小任务,默认是 claude-haiku-4-5。如果你只设了主模型, 小模型还是 haiku,会被 BeEye 拦截并报 503 "Claude 系列即将上线"。 所以两个变量都要指到 gpt-5.4
为什么值得用: Claude Code 原生走 Anthropic 协议,切到 BeEye 后所有工具循环 (tool_use → tool_result → 继续推理) 都能跑,价格只有 Anthropic 官方的一部分。
Responses 协议

Codex CLI

OpenAI 官方 Codex CLI 只支持 Responses API。BeEye 的 /v1/responses 端点完全兼容,把下面 4 行配置复制进 config.toml 即可。

1
如果之前用过 codex login,先清掉旧凭证(自定义 provider 不需要登录):
codex logout
2
编辑 ~/.codex/config.toml,把下面完整内容贴进去:
~/.codex/config.toml
model = "gpt-5.4"
model_provider = "beeye"

[model_providers.beeye]
name = "BeEye"
base_url = "https://beeye.com/v1"
wire_api = "responses"
env_key = "BEEYE_API_KEY"
关键 3 行: model_provider = "beeye"(没有这行就会落回 api.openai.com)、base_url(必须带 /v1)、env_key = "BEEYE_API_KEY"(用专属环境变量名,不要复用 OPENAI_API_KEY,避免和已有的 OpenAI 真实 key 冲突)。
3
永久写入 BeEye API key(bash 用户;zsh 用户改成 ~/.zshrc):
echo 'export BEEYE_API_KEY="sk-beeye-..."' >> ~/.bashrc
source ~/.bashrc
4
验证连通性 —— 应该看到 BeEye 返回的回复:
codex exec "say ok"
故障排查: 如果看到错误信息里出现 https://api.openai.com/v1/responses,说明 codex 没有用 BeEye provider, 99% 是 model_provider = "beeye" 这行没生效 —— 检查 config.toml 是否在正确路径 (~/.codex/config.toml),并且这行在文件顶层(不要嵌在 [profiles.*] 段里)。 Codex 当前只支持 wire_api = "responses"
环境变量没生效? echo ... >> ~/.bashrc 只对**新开**的终端生效。已经打开的旧 shell / tmux 窗口 必须 source ~/.bashrc 或重开窗口才能拿到 BEEYE_API_KEY。 用 echo $BEEYE_API_KEY 一行验证当前终端是否真的有这个变量。
命令行 · 编辑助手

Aider

Aider 用 --openai-api-base 指向任意 OpenAI 兼容端点,BeEye 直接 可用。

1
把 API key 和 base URL 写进环境变量:
~/.bashrc
export OPENAI_API_KEY="sk-beeye-..."
export OPENAI_API_BASE="https://beeye.com/v1"
2
在项目目录下运行:
aider --model openai/gpt-5.4
模型名前缀 openai/ 是 LiteLLM 的要求,告诉 Aider 用 OpenAI Chat Completions 协议解析响应。
编辑器 · 主流

Cursor

Cursor 允许自定义 OpenAI 兼容端点。注意:自定义后,Cursor 的 所有 AI 功能(Chat、Composer、Inline Edit)都会走 BeEye。

1
Cursor → SettingsModels
2
展开「OpenAI API Key」部分,勾选 Override OpenAI Base URL, 填入:
Cursor Settings → Models
Base URL: https://beeye.com/v1
OpenAI API Key: sk-beeye-...
Model: gpt-5.4 # 在 Model Names 里手动添加
3
点击「Verify」,绿色对勾出现即成功。
Cursor 原生的 Claude / GPT-4 切换在这种模式下会失效 — 你明确地在用 BeEye 作为后端。想要 Cursor 同时用原生 Claude + BeEye GPT-5.4 目前不支持。
编辑器 · VS Code agent

Cline

Cline 是 VS Code 里的开源 agent 插件,对 tool calling 依赖很重。BeEye 修好的 tool_calls 流正好是它需要的。

1
在 VS Code 里安装 Cline 扩展。
2
点开 Cline 面板的齿轮,Provider 选 OpenAI Compatible,填入:
Cline · OpenAI Compatible Provider
Base URL: https://beeye.com/v1
API Key: sk-beeye-...
Model ID: gpt-5.4
3
在 Model Configuration 里打开 Supports Tools Supports Images(Images 暂不影响,保留默认即可)。
Cline 的 agent loop 会发很多 tool_use / tool_result 回合,每回合的 prompt tokens 都不便宜 — 用 BeEye 比官方便宜近一半的 Cline 体验值得试。
编辑器 · VS Code / JetBrains

Continue.dev

Continue 用 JSON 配置,支持 OpenAI、Anthropic 和 OpenAI-compatible 多种 provider。BeEye 走 openai provider 最省事。

1
编辑 ~/.continue/config.json:
~/.continue/config.json
{
  "models": [
    {
      "title": "GPT-5.4 (BeEye)",
      "provider": "openai",
      "model": "gpt-5.4",
      "apiBase": "https://beeye.com/v1",
      "apiKey": "sk-beeye-..."
    }
  ]
}
2
重启 VS Code(或 Continue 的 Reload)即生效。
编辑器 · Rust 原生

Zed

Zed 的 assistant 支持自定义 OpenAI-compatible endpoint,配置在~/.config/zed/settings.json 里。

1
打开 Zed 设置文件(Cmd+,):
~/.config/zed/settings.json
{
  "language_models": {
    "openai": {
      "api_url": "https://beeye.com/v1",
      "available_models": [
        {
          "name": "gpt-5.4",
          "display_name": "GPT-5.4 (BeEye)",
          "max_tokens": 200000
        }
      ]
    }
  }
}
2
在 Zed 右上角的 assistant 面板,选择 OpenAI provider,粘贴 API key sk-beeye-...
终端 · 全键盘 agent

opencode

opencode 是命令行里的 agent,支持任意 OpenAI-compatible 端点。

1
编辑 ~/.config/opencode/config.json:
~/.config/opencode/config.json
{
  "providers": {
    "beeye": {
      "name": "BeEye",
      "api": "openai",
      "baseUrl": "https://beeye.com/v1",
      "apiKey": "sk-beeye-...",
      "models": ["gpt-5.4"]
    }
  }
}
2
运行 opencode,在 /models 命令里选择 beeye/gpt-5.4
网关 · 多 provider 编排

OpenClaw

按下面 4 步走,每一步只做一件事。第 1 步定义 BEEYE_API_KEY, 后面所有步骤都引用它,不在配置文件里硬编码 key。

1
定义环境变量 BEEYE_API_KEY(后面所有步骤都引用它):
~/.bashrc(zsh 用户改成 ~/.zshrc)
export BEEYE_API_KEY="sk-beeye-..."
让当前终端读到这个变量
echo 'export BEEYE_API_KEY="sk-beeye-..."' >> ~/.bashrc
source ~/.bashrc
# 验证
echo $BEEYE_API_KEY
注意: 这一步只让交互式终端读到变量。如果你的 OpenClaw gateway 是 systemd 服务(跑过 openclaw gateway install),还要做第 3 步, 否则 daemon 进程读不到 BEEYE_API_KEY
2
把 BeEye provider 加进 ~/.openclaw/openclaw.json已有配置的用户务必用 jq 增量合并,不要 cat >整文件覆盖(否则会丢掉 telegram / gateway / logging 等段)。
情况 A:首次安装,文件不存在
mkdir -p ~/.openclaw
cat > ~/.openclaw/openclaw.json <<'EOF'
{
  "models": {
    "mode": "merge",
    "providers": {
      "beeye": {
        "baseUrl": "https://beeye.com/v1",
        "apiKey":  "${BEEYE_API_KEY}",
        "api":     "openai-responses",
        "models": [{ "id": "gpt-5.4", "name": "GPT-5.4 (BeEye)", "api": "openai-responses", "reasoning": false, "input": ["text"], "cost": {"input": 1.25, "output": 7.5}, "contextWindow": 1000000, "maxTokens": 16384 }]
      }
    }
  },
  "agents": { "defaults": { "model": { "primary": "beeye/gpt-5.4" } } }
}
EOF
情况 B:文件已存在,增量合并(需要 jq)
cp ~/.openclaw/openclaw.json ~/.openclaw/openclaw.json.bak
NEW='{"models":{"mode":"merge","providers":{"beeye":{"baseUrl":"https://beeye.com/v1","apiKey":"${BEEYE_API_KEY}","api":"openai-responses","models":[{"id":"gpt-5.4","name":"GPT-5.4 (BeEye)","api":"openai-responses","reasoning":false,"input":["text"],"cost":{"input":1.25,"output":7.5},"contextWindow":1000000,"maxTokens":16384}]}}},"agents":{"defaults":{"model":{"primary":"beeye/gpt-5.4"}}}}'
jq --argjson new "$NEW" '. * $new' ~/.openclaw/openclaw.json > /tmp/_oc.json && mv /tmp/_oc.json ~/.openclaw/openclaw.json
关于 ${BEEYE_API_KEY} 占位符: OpenClaw 在加载 JSON 时从 daemon 进程的 environ 里读取这个变量替换占位符。 所以第 1 步只是让看得到这个变量,真正起作用要看 daemon 进程能不能看到 — 这正是第 3 步要解决的。
3
仅当 OpenClaw 跑成 systemd 服务时:把 BEEYE_API_KEY 通过 EnvironmentFile 注入给 daemon。systemd 不读 你的 ~/.bashrc,所以前面的 export 对它没用。
给 systemd 单独配 BEEYE_API_KEY
# 1) 写专用 env 文件,只 root 可读
sudo mkdir -p /etc/openclaw
echo 'BEEYE_API_KEY=sk-beeye-...' | sudo tee /etc/openclaw/env >/dev/null
sudo chmod 600 /etc/openclaw/env

# 2) drop-in 覆盖,不动原 unit
sudo systemctl edit openclaw-gateway
# 在打开的编辑器里写两行:
# [Service]
# EnvironmentFile=/etc/openclaw/env

# 3) 重新加载并重启
sudo systemctl daemon-reload
sudo systemctl restart openclaw-gateway
4
三步验证 —— 任何一步失败,回头查上面对应的 Step:
逐项验证
# 4.1 当前终端能看到 BEEYE_API_KEY
echo $BEEYE_API_KEY

# 4.2 daemon 进程能看到 BEEYE_API_KEY(systemd 用户必看)
cat /proc/$(pgrep -f 'openclaw gateway')/environ | tr '\0' '\n' | grep BEEYE

# 4.3 默认模型已切到 beeye/gpt-5.4
openclaw models status

# 4.4 端到端冒烟
curl -s http://127.0.0.1:18789/v1/chat/completions \\
  -H 'content-type: application/json' \\
  -d '{"model":"openclaw","messages":[{"role":"user","content":"say ok"}]}'
最常见 3 个坑: cat > 把已有的 telegram/gateway 段擦掉 → 用 jq 增量合并; ② systemd daemon 读不到 BEEYE_API_KEY EnvironmentFile; ③ JSON 语法错 → jq . ~/.openclaw/openclaw.json 校验。
参考

直接调 API

如果你的工具没在上面的列表里,或者要自己写 SDK,下面是 BeEye 暴露的 3 个 端点 —— 全部接受 sk-beeye-... 作为 bearer token。

POST
/v1/chat/completions
OpenAI Chat Completions · Cursor / Cline / Continue / Aider / Zed / opencode 都走这条
POST
/v1/responses
OpenAI Responses API · Codex CLI / OpenAI Responses SDK / OpenClaw (openai-responses)
POST
/v1/messages
Anthropic Messages · Claude Code / Anthropic SDK 任意客户端
所有端点都支持:流式 SSE(stream: true)、function/tool calling、tool 结果回传(多轮 agent loop)。三个端点共享同一个 channel 池和同一套账单逻辑。
Anthropic SDK · Python · 用 Claude 客户端调 GPT-5.4
import anthropic

client = anthropic.Anthropic(
  base_url="https://beeye.com",
  api_key="sk-beeye-...",
)

msg = client.messages.create(
  model="gpt-5.4",
  max_tokens=1024,
  messages=[{"role": "user", "content": "Hello"}],
)