Skip to content

常见问题 FAQ

1. ai.TokenHub 是什么?

ai.TokenHub 是一个企业级的 LLM Token 平台,提供统一的 API 接口访问不同的 AI 模型。你可以通过一个 API Key 使用多种模型,包括 GPT-4o、Claude、DeepSeek 等。

2. 如何开始使用?

  1. 注册并登录 ai.TokenHub
  2. 在控制台创建 API Key
  3. 使用 API Key 调用接口

详细步骤请参考 快速入门

3. 支持哪些模型?

我们支持多种主流 AI 模型:

对话模型:

  • OpenAI: GPT-4o, GPT-4o-mini
  • Anthropic: Claude-3-5-Sonnet, Claude-3-Opus
  • DeepSeek: DeepSeek-Chat

嵌入模型:

  • text-embedding-3-small
  • text-embedding-3-large

重排模型:

  • rerank-1, rerank-2

4. API 兼容 OpenAI 吗?

是的,ai.TokenHub API 完全兼容 OpenAI API 格式。你可以直接使用 OpenAI SDK,只需修改 base_url

python
from openai import OpenAI

client = OpenAI(
    base_url="https://ai-tokenhub.com/v1",
    api_key="YOUR_TOKENHUB_KEY"
)

5. 如何计费?

  • 按 Token 使用量计费
  • 不同模型有不同的定价
  • 可在控制台查看实时使用量和费用
  • 支持充值和额度管理

6. 有免费额度吗?

新用户注册后可获得一定的免费测试额度,用于开发和调试。

7. 如何处理速率限制?

当超出速率限制时,API 返回 429 错误。建议:

  1. 实现重试机制,等待后重新请求
  2. 批量处理请求,减少请求次数
  3. 使用流式传输减少并发

详细说明请参考 API Key 限制

8. 如何设置备用模型?

使用 fallback_models 参数:

json
{
  "model": "gpt-4o",
  "fallback_models": ["claude-3-5-sonnet", "deepseek-chat"]
}

当主模型不可用时,系统会自动尝试备用模型。

9. 支持流式输出吗?

支持。设置 stream: true 即可启用流式传输。详细说明请参考 流式传输

10. 如何获取技术支持?

  • 查看 错误与调试 文档
  • 登录控制台查看使用日志
  • 联系客服获取帮助