AICodeDog
Migration

从 OpenAI 迁移

如果你的代码已经在用 OpenAI 官方 SDK,迁过来真的就是改一行——把 baseURL 指到 api.aicodedog.com,连 API Key 都不用改格式。

为什么要迁过来

  • **多家模型一把 Key**:GPT、Claude、Gemini、DeepSeek、Kimi、Qwen 全部走同一个端点。
  • **便宜 20%**:所有模型平均比官方低 20%,量大可议。调用失败不扣费。
  • **国内直连低延迟**:境内部署的接入点 + Cloudflare 加速。
  • **统一账单**:合并发票,财务对账简化。
  • **OEM 白牌**:拿我们做底层,你做品牌——独立域名 + 控制台。

代码层改动

**唯一改动是 baseURL**。其余请求结构、字段、返回都和 OpenAI 完全一致。

diff
# Python from openai import OpenAI client = OpenAI( - api_key="sk-openai-xxx", + api_key=os.environ["AICODEDOG_KEY"], + base_url="https://api.aicodedog.com/v1", ) resp = client.chat.completions.create( - model="gpt-4o", + model="gpt-5.4", # 或保留 gpt-4o,我们透传给 OpenAI messages=[{"role": "user", "content": "你好"}], )
diff
// Node.js const client = new OpenAI({ - apiKey: process.env.OPENAI_API_KEY, + apiKey: process.env.AICODEDOG_KEY, + baseURL: 'https://api.aicodedog.com/v1', });

迁移 Checklist

  1. **新建 AICodeDog API Key**:注册 → 控制台 → API Key 管理。
  2. **配环境变量**:把 AICODEDOG_KEY 加到 .env、Vercel/Cloudflare/AWS 的 secrets 里。
  3. **改一行 baseURL**:每个客户端构造处加 baseURL: 'https://api.aicodedog.com/v1'
  4. **跑一次烟雾测试**:本地用一个最小 prompt 调通,确认 200。
  5. **灰度切流**:生产环境先把 10% 流量切过来观察 1–2 天,验证 latency / 错误率 / token 用量。没问题再切到 100%。
  6. **监控对比**:在 dashboard 里看 token 用量、错误率、p99 延迟,与之前一致或更好即收工。

模型名兼容

我们做了双向兼容:

  • 原 OpenAI 模型名(gpt-4ogpt-4-turbotext-embedding-3-small 等)**继续可用**——我们透传给 OpenAI 上游。
  • 想用其他厂商的模型,参考 /models 选择 slug,例如:
    • claude-opus-4-7 ← Anthropic 旗舰
    • gemini-3-1-pro ← Google 旗舰
    • DeepSeek-V4-Pro ← 性价比之王
    • Kimi-K2.6 ← 长上下文

细节差异(少数情况)

  • **Assistants API / Realtime API**:暂未代理。如果你重度使用,建议先保留官方 Key 走那部分,其他流量走 AICodeDog。
  • **Files API(fine-tune 上传)**:暂未代理。Fine-tune 仍直走官方。
  • **Organization Header**(OpenAI-Organization):会被忽略,对结果无影响。
  • **响应里的 id 字段**:我们重新生成(前缀 chatcmpl-)便于你审计追溯。原 OpenAI 的 id 在 upstream_id 字段(仅 admin 可见)。
迁移期免费试用
新账号首次充值 ¥10 立得 ¥30 试用额度。建议你用试用额度跑 1–2 天真实流量做对比,跟原 OpenAI 账单对一对—— 通常你会看到费用降 15–25%,latency 持平或更好。