← 返回首页

📚 API Gateway 使用文档

欢迎使用 API Gateway!本文档将帮助您快速上手并充分利用我们的服务。

🚀 快速开始

获取 API Key

注册账户

访问 用户中心,使用邮箱或 OAuth 快速注册。

获取 API Key

登录后,在「API 密钥」页面创建新的 API Key。新用户赠送 3.0 体验额度。

开始调用

将 API Key 用于您的请求中,即可开始调用各种 AI 模型。

💡 新用户福利

首次注册即赠送 3.0 额度,可体验多种 AI 模型,无需绑定信用卡。

第一个请求

使用以下代码发送您的第一个请求:

cURL
curl https://api.7zi.com/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "model": "auto",
    "messages": [{"role": "user", "content": "你好,请介绍一下自己"}]
  }'
📌 提示

YOUR_API_KEY 替换为您在用户中心创建的实际 API Key。

响应示例

JSON Response
{
  "id": "chatcmpl-xxx",
  "object": "chat.completion",
  "model": "deepseek-v3.2",  // 实际使用的模型
  "choices": [{
    "index": 0,
    "message": {
      "role": "assistant",
      "content": "你好!我是一个 AI 助手..."
    }
  }],
  "usage": {
    "prompt_tokens": 15,
    "completion_tokens": 100,
    "total_tokens": 115
  }
}

🎯 Auto 模型详解

model 参数设为 "auto",系统将自动选择最优模型。

Auto 的工作原理

  1. 实时监测:系统持续监控各渠道的延迟、成功率、成本
  2. 智能评分:根据多维度指标为每个模型打分
  3. 最优选择:选择综合得分最高的模型处理请求
  4. 故障切换:如选中模型异常,毫秒级切换备用模型

Auto 的优势

特性 说明
🎯 智能路由 自动选择当前表现最佳的模型
💰 成本优化 在满足需求前提下选择性价比最高的模型
🛡️ 高可用 故障自动切换,业务无感知
🔄 自动升级 新模型自动纳入选择池,无需修改代码
📊 透明可控 响应中返回实际使用的模型名称
⚠️ 适用场景

Auto 模式适合:

  • 通用对话、问答场景
  • 对模型无严格要求的场景
  • 追求性价比的场景

如需严格一致的输出风格或特定模型能力,建议直接指定模型。

📡 API 参考

对话补全 POST

POST /v1/chat/completions

请求参数

参数 类型 必填 说明
model string 模型 ID,如 autogpt-4deepseek-v3.2
messages array 对话消息数组
temperature number 温度参数,0-2,默认 1
max_tokens integer 最大生成 token 数
stream boolean 是否流式返回,默认 false

Messages 格式

JSON
"messages": [
  {"role": "system", "content": "你是一个有帮助的助手"},
  {"role": "user", "content": "你好"},
  {"role": "assistant", "content": "你好!有什么可以帮到你的?"},
  {"role": "user", "content": "介绍一下 Python"}
]

模型列表 GET

GET /v1/models

请求示例
curl https://api.7zi.com/v1/models \
  -H "Authorization: Bearer YOUR_API_KEY"

可用模型(部分)

模型 ID 说明
auto 智能选择最优模型
gpt-4 OpenAI GPT-4
gpt-4-turbo OpenAI GPT-4 Turbo
claude-3-opus Anthropic Claude 3 Opus
gemini-2.5-pro Google Gemini 2.5 Pro
deepseek-v3.2 DeepSeek V3.2
glm-4 智谱 GLM-4

余额查询 GET

GET /v1/balance

请求示例
curl https://api.7zi.com/v1/balance \
  -H "Authorization: Bearer YOUR_API_KEY"
响应示例
{
  "balance": 2.85,
  "currency": "USD"
}

📖 使用指南

指定具体模型

除了使用 auto,您也可以直接指定具体模型:

Python
from openai import OpenAI

client = OpenAI(
    api_key="your-api-key",
    base_url="https://api.7zi.com/v1"
)

# 指定具体模型
response = client.chat.completions.create(
    model="deepseek-v3.2",  # 或 gpt-4, claude-3-opus 等
    messages=[{"role": "user", "content": "你好"}]
)

print(response.choices[0].message.content)

流式响应

设置 stream=True 实现流式输出:

Python
response = client.chat.completions.create(
    model="auto",
    messages=[{"role": "user", "content": "写一首诗"}],
    stream=True  # 启用流式
)

for chunk in response:
    if chunk.choices[0].delta.content:
        print(chunk.choices[0].delta.content, end="")

SDK 使用

Python

安装
pip install openai

Node.js

安装
npm install openai
使用示例
import OpenAI from 'openai';

const client = new OpenAI({
    apiKey: 'your-api-key',
    baseURL: 'https://api.7zi.com/v1'
});

const response = await client.chat.completions.create({
    model: 'auto',
    messages: [{ role: 'user', content: '你好' }]
});

💰 计费说明

计费方式

  • Token 数量 计费(输入 + 输出)
  • 不同模型价格不同,auto 会自动选择性价比最优的模型
  • 实时扣费,余额不足时请求会失败

价格参考

模型 输入 (每 1K tokens) 输出 (每 1K tokens)
deepseek-v3.2 ~$0.0005 ~$0.001
gpt-4-turbo ~$0.01 ~$0.03
claude-3-opus ~$0.015 ~$0.075
💡 提示

以上为参考价格,实际价格以系统为准。使用 auto 模式可有效降低成本。

配额管理

  • 用户中心 查看余额和使用明细
  • 支持充值,支持支付宝、微信支付
  • 可设置用量告警阈值

❓ 常见问题

API Key 在哪里获取?

登录 用户中心,在「API 密钥」页面创建和管理您的 API Key。

Auto 模式会选择什么模型?

系统根据实时监测数据自动选择当前综合表现最佳的模型,包括延迟、成功率、成本等因素。您可以在响应中看到实际使用的模型名称。

如何知道实际使用的模型?

每次响应的 model 字段会显示实际使用的模型,例如 deepseek-v3.2

余额不足会怎样?

请求会返回 402 Payment Required 错误,提示余额不足。请及时充值。

支持哪些模型?

支持 OpenAI GPT 系列、Anthropic Claude 系列、Google Gemini 系列、DeepSeek、智谱 GLM 等主流模型。完整列表请调用 GET /v1/models 查看。

响应速度慢怎么办?

建议使用 auto 模式,系统会自动选择当前延迟最低的模型。也可以尝试指定延迟较低的模型如 deepseek-v3.2

✨ 最佳实践

1. 使用 Auto 模式

对于大多数场景,推荐使用 auto 模式,让系统自动选择最优模型。

2. 合理设置 Temperature

  • 代码生成:temperature = 0.2
  • 对话问答:temperature = 0.7
  • 创意写作:temperature = 1.0+

3. 使用流式响应

对于长文本生成,使用流式响应可以提升用户体验,减少等待感知。

4. 错误处理

始终实现重试逻辑和错误处理,特别是网络超时和余额不足的情况。

5. 缓存策略

对于重复的请求,考虑实现缓存以节省成本。

🚨 错误处理

常见错误码

错误码 说明 解决方案
401 认证失败 检查 API Key 是否正确
402 余额不足 充值或等待额度刷新
429 请求过于频繁 降低请求频率或等待
500 服务器错误 重试或联系支持

错误响应格式

JSON
{
  "error": {
    "message": "Insufficient balance",
    "type": "insufficient_balance",
    "code": "insufficient_balance"
  }
}
🎉 开始使用

现在您已经了解了 API Gateway 的基本使用方法,立即 获取 API Key 开始您的 AI 之旅!