Migration
从 OpenAI 迁移
如果你的代码已经在用 OpenAI 官方 SDK,迁过来真的就是改一行——把 baseURL 指到 api.aicodedog.com,连 API Key 都不用改格式。
为什么要迁过来
- **多家模型一把 Key**:GPT、Claude、Gemini、DeepSeek、Kimi、Qwen 全部走同一个端点。
- **便宜 20%**:所有模型平均比官方低 20%,量大可议。调用失败不扣费。
- **国内直连低延迟**:境内部署的接入点 + Cloudflare 加速。
- **统一账单**:合并发票,财务对账简化。
- **OEM 白牌**:拿我们做底层,你做品牌——独立域名 + 控制台。
代码层改动
**唯一改动是 baseURL**。其余请求结构、字段、返回都和 OpenAI 完全一致。
diff# Python from openai import OpenAI client = OpenAI( - api_key="sk-openai-xxx", + api_key=os.environ["AICODEDOG_KEY"], + base_url="https://api.aicodedog.com/v1", ) resp = client.chat.completions.create( - model="gpt-4o", + model="gpt-5.4", # 或保留 gpt-4o,我们透传给 OpenAI messages=[{"role": "user", "content": "你好"}], )
diff// Node.js const client = new OpenAI({ - apiKey: process.env.OPENAI_API_KEY, + apiKey: process.env.AICODEDOG_KEY, + baseURL: 'https://api.aicodedog.com/v1', });
迁移 Checklist
- **新建 AICodeDog API Key**:注册 → 控制台 → API Key 管理。
- **配环境变量**:把
AICODEDOG_KEY加到.env、Vercel/Cloudflare/AWS 的 secrets 里。 - **改一行 baseURL**:每个客户端构造处加
baseURL: 'https://api.aicodedog.com/v1'。 - **跑一次烟雾测试**:本地用一个最小 prompt 调通,确认 200。
- **灰度切流**:生产环境先把 10% 流量切过来观察 1–2 天,验证 latency / 错误率 / token 用量。没问题再切到 100%。
- **监控对比**:在 dashboard 里看 token 用量、错误率、p99 延迟,与之前一致或更好即收工。
模型名兼容
我们做了双向兼容:
- 原 OpenAI 模型名(
gpt-4o、gpt-4-turbo、text-embedding-3-small等)**继续可用**——我们透传给 OpenAI 上游。 - 想用其他厂商的模型,参考 /models 选择 slug,例如:
claude-opus-4-7← Anthropic 旗舰gemini-3-1-pro← Google 旗舰DeepSeek-V4-Pro← 性价比之王Kimi-K2.6← 长上下文
细节差异(少数情况)
- **Assistants API / Realtime API**:暂未代理。如果你重度使用,建议先保留官方 Key 走那部分,其他流量走 AICodeDog。
- **Files API(fine-tune 上传)**:暂未代理。Fine-tune 仍直走官方。
- **Organization Header**(
OpenAI-Organization):会被忽略,对结果无影响。 - **响应里的
id字段**:我们重新生成(前缀chatcmpl-)便于你审计追溯。原 OpenAI 的 id 在upstream_id字段(仅 admin 可见)。
迁移期免费试用
新账号首次充值 ¥10 立得 ¥30 试用额度。建议你用试用额度跑 1–2 天真实流量做对比,跟原 OpenAI 账单对一对—— 通常你会看到费用降 15–25%,latency 持平或更好。