OpenAI API 兼容 · 即开即用

一个 API Key
调用全球顶尖 AI 模型

告别多账号管理烦恼,一个密钥畅享 GPT、Claude、Gemini、DeepSeek 等数十种模型
智能路由自动选择最优模型,让 AI 调用更简单、更经济、更可靠

50+
可用模型
6
AI 渠道
99.9%
服务可用性
3.0
新用户赠送额度

智能模型选择:auto

只需将 model 参数设为 "auto",系统将自动为您选择当前最优的 AI 模型。
无需纠结用哪个模型,让专业的事交给专业的系统来做。

🎯

智能路由,最优选择

系统实时监测各渠道延迟、成功率、成本,自动选择当前综合表现最佳的模型。您无需关心后端复杂度,每次请求都能获得最优响应。

💰

成本优化,省钱有道

自动在满足需求的前提下选择性价比最高的模型。同样的任务,可能只需花费十分之一的价格。用得越多,省得越多。

🛡️

高可用保障,永不掉线

当某个模型服务异常时,系统毫秒级切换到备用渠道。您完全感知不到故障,业务持续稳定运行。告别单点故障焦虑。

极简接入,零学习成本

完全兼容 OpenAI API 格式,只需改一个参数:model: "auto"。现有代码无需任何改动,立即享受智能路由优势。

🔄

自动升级,始终领先

当新的优秀模型上线时,您无需修改任何代码,系统自动纳入选择池。今天用 auto,明天就能享受到最新最强的模型能力。

📊

透明可控,心中有数

每次请求都返回实际使用的模型名称,您可以清楚知道系统为您选择了什么。完全透明,绝不盲盒。支持查看详细的用量统计。

🧠

任务适配,专业对口

系统根据请求特征智能判断任务类型,代码生成选择擅长编程的模型,创意写作选择更有想象力的模型。让专业模型做专业的事。

⚖️

负载均衡,稳定可靠

智能分配请求到不同渠道,避免单一渠道过载。高峰期也能保持稳定响应速度,不会因为用户量激增而降级。

💻 一行代码,立即体验

// 使用 auto - 系统自动选择最优模型 import OpenAI from 'openai'; const client = new OpenAI({ apiKey: 'your-api-key', baseURL: 'https://api.7zi.com/v1' }); const response = await client.chat.completions.create({ model: "auto", // 就是这么简单! messages: [{ role: 'user', content: '你好,请介绍一下自己' }] }); // 响应中会包含实际使用的模型 console.log('实际模型:', response.model); // 输出: 实际模型: deepseek-v3.2

传统方式 vs auto 模式

❌ 传统方式的问题

  • ⚠️ 需要为每个模型单独申请 API Key
  • ⚠️ 手动对比价格、性能,决策困难
  • ⚠️ 某个模型挂了,需要手动切换代码
  • ⚠️ 新模型上线,需要学习并修改代码
  • ⚠️ 多个账单分散管理,费用难统计
  • ⚠️ 不同模型 API 格式可能不同

✅ auto 模式的优势

  • ✨ 一个 API Key 访问所有模型
  • ✨ 系统自动选择性价比最优的模型
  • ✨ 故障自动切换,业务无感知
  • ✨ 新模型自动纳入,无需任何改动
  • ✨ 统一账单,用量一目了然
  • ✨ 完全兼容 OpenAI 格式

💡 温馨提示 - auto 模式的适用场景

🎯 不想用 auto?完全没问题!

auto 是可选功能,您完全可以像传统方式一样直接指定具体模型。系统支持 OpenAI、Claude、Gemini、DeepSeek、智谱等众多主流模型,直接使用模型 ID 即可调用:

gpt-4 gpt-4-turbo gpt-3.5-turbo claude-3-opus claude-3-sonnet gemini-pro gemini-2.5-pro deepseek-v3.2 glm-4 ...

💡 查看完整模型列表请访问 用户中心 或调用 GET /v1/models API

🚀 部分可用模型展示

gpt-4 gpt-4-turbo gpt-4o gpt-4o-mini claude-3-opus claude-3.5-sonnet gemini-2.5-pro gemini-2.5-flash deepseek-v3.2 deepseek-v3.2-thinking glm-4 glm-4-plus mistral-large llama-3.1-405b qwen-max
admin