常见问题 FAQ
1. ai.TokenHub 是什么?
ai.TokenHub 是一个企业级的 LLM Token 平台,提供统一的 API 接口访问不同的 AI 模型。你可以通过一个 API Key 使用多种模型,包括 GPT-4o、Claude、DeepSeek 等。
2. 如何开始使用?
- 注册并登录 ai.TokenHub
- 在控制台创建 API Key
- 使用 API Key 调用接口
详细步骤请参考 快速入门。
3. 支持哪些模型?
我们支持多种主流 AI 模型:
对话模型:
- OpenAI: GPT-4o, GPT-4o-mini
- Anthropic: Claude-3-5-Sonnet, Claude-3-Opus
- DeepSeek: DeepSeek-Chat
嵌入模型:
- text-embedding-3-small
- text-embedding-3-large
重排模型:
- rerank-1, rerank-2
4. API 兼容 OpenAI 吗?
是的,ai.TokenHub API 完全兼容 OpenAI API 格式。你可以直接使用 OpenAI SDK,只需修改 base_url:
python
from openai import OpenAI
client = OpenAI(
base_url="https://ai-tokenhub.com/v1",
api_key="YOUR_TOKENHUB_KEY"
)5. 如何计费?
- 按 Token 使用量计费
- 不同模型有不同的定价
- 可在控制台查看实时使用量和费用
- 支持充值和额度管理
6. 有免费额度吗?
新用户注册后可获得一定的免费测试额度,用于开发和调试。
7. 如何处理速率限制?
当超出速率限制时,API 返回 429 错误。建议:
- 实现重试机制,等待后重新请求
- 批量处理请求,减少请求次数
- 使用流式传输减少并发
详细说明请参考 API Key 限制。
8. 如何设置备用模型?
使用 fallback_models 参数:
json
{
"model": "gpt-4o",
"fallback_models": ["claude-3-5-sonnet", "deepseek-chat"]
}当主模型不可用时,系统会自动尝试备用模型。
9. 支持流式输出吗?
支持。设置 stream: true 即可启用流式传输。详细说明请参考 流式传输。
10. 如何获取技术支持?
- 查看 错误与调试 文档
- 登录控制台查看使用日志
- 联系客服获取帮助