OpenAI API 兼容 · 即开即用
一个 API Key
调用全球顶尖 AI 模型
告别多账号管理烦恼,一个密钥畅享 GPT、Claude、Gemini、DeepSeek 等数十种模型
智能路由自动选择最优模型,让 AI 调用更简单、更经济、更可靠
智能模型选择:auto
只需将 model 参数设为 "auto",系统将自动为您选择当前最优的 AI 模型。
无需纠结用哪个模型,让专业的事交给专业的系统来做。
🎯
智能路由,最优选择
系统实时监测各渠道延迟、成功率、成本,自动选择当前综合表现最佳的模型。您无需关心后端复杂度,每次请求都能获得最优响应。
💰
成本优化,省钱有道
自动在满足需求的前提下选择性价比最高的模型。同样的任务,可能只需花费十分之一的价格。用得越多,省得越多。
🛡️
高可用保障,永不掉线
当某个模型服务异常时,系统毫秒级切换到备用渠道。您完全感知不到故障,业务持续稳定运行。告别单点故障焦虑。
⚡
极简接入,零学习成本
完全兼容 OpenAI API 格式,只需改一个参数:model: "auto"。现有代码无需任何改动,立即享受智能路由优势。
🔄
自动升级,始终领先
当新的优秀模型上线时,您无需修改任何代码,系统自动纳入选择池。今天用 auto,明天就能享受到最新最强的模型能力。
📊
透明可控,心中有数
每次请求都返回实际使用的模型名称,您可以清楚知道系统为您选择了什么。完全透明,绝不盲盒。支持查看详细的用量统计。
🧠
任务适配,专业对口
系统根据请求特征智能判断任务类型,代码生成选择擅长编程的模型,创意写作选择更有想象力的模型。让专业模型做专业的事。
⚖️
负载均衡,稳定可靠
智能分配请求到不同渠道,避免单一渠道过载。高峰期也能保持稳定响应速度,不会因为用户量激增而降级。
💻 一行代码,立即体验
import OpenAI from 'openai';
const client = new OpenAI({
apiKey: 'your-api-key',
baseURL: 'https://api.7zi.com/v1'
});
const response = await client.chat.completions.create({
model: "auto",
messages: [{ role: 'user', content: '你好,请介绍一下自己' }]
});
console.log('实际模型:', response.model);
import OpenAI from 'openai';
const client = new OpenAI({
apiKey: 'your-api-key',
baseURL: 'https://api.7zi.com/v1'
});
const response = await client.chat.completions.create({
model: "gpt-4",
messages: [{ role: 'user', content: '写一首关于春天的诗' }]
});
curl https://api.7zi.com/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer your-api-key" \
-d '{
"model": "auto",
"messages": [{"role": "user", "content": "你好"}]
}'
传统方式 vs auto 模式
❌ 传统方式的问题
- ⚠️ 需要为每个模型单独申请 API Key
- ⚠️ 手动对比价格、性能,决策困难
- ⚠️ 某个模型挂了,需要手动切换代码
- ⚠️ 新模型上线,需要学习并修改代码
- ⚠️ 多个账单分散管理,费用难统计
- ⚠️ 不同模型 API 格式可能不同
✅ auto 模式的优势
- ✨ 一个 API Key 访问所有模型
- ✨ 系统自动选择性价比最优的模型
- ✨ 故障自动切换,业务无感知
- ✨ 新模型自动纳入,无需任何改动
- ✨ 统一账单,用量一目了然
- ✨ 完全兼容 OpenAI 格式
💡 温馨提示 - auto 模式的适用场景
- 🔸 模型不可预知:每次请求可能使用不同模型,如果您的应用对模型有严格要求,建议直接指定具体模型
- 🔸 首次响应稍慢:系统需要评估选择最优模型,首字延迟可能比直接指定模型略高(通常在毫秒级别)
- 🔸 行为一致性:不同模型输出风格可能有差异,如需严格一致的输出风格,建议固定模型
- 🔸 测试调试:开发测试阶段建议指定具体模型,便于复现问题和对比效果
🎯 不想用 auto?完全没问题!
auto 是可选功能,您完全可以像传统方式一样直接指定具体模型。系统支持 OpenAI、Claude、Gemini、DeepSeek、智谱等众多主流模型,直接使用模型 ID 即可调用:
gpt-4
gpt-4-turbo
gpt-3.5-turbo
claude-3-opus
claude-3-sonnet
gemini-pro
gemini-2.5-pro
deepseek-v3.2
glm-4
...
💡 查看完整模型列表请访问 用户中心 或调用 GET /v1/models API
🚀 部分可用模型展示
gpt-4
gpt-4-turbo
gpt-4o
gpt-4o-mini
claude-3-opus
claude-3.5-sonnet
gemini-2.5-pro
gemini-2.5-flash
deepseek-v3.2
deepseek-v3.2-thinking
glm-4
glm-4-plus
mistral-large
llama-3.1-405b
qwen-max