Skip to content

Dify 配置指南

什么是 Dify

Dify 是一个开源的 AI 应用开发平台,支持通过可视化界面构建 AI 工作流、聊天机器人和 Agent 应用。

配置 ai.TokenHub

Dify 支持 OpenAI 兼容协议,可以直接配置 ai.TokenHub 作为模型提供商。

配置步骤

1. 进入模型提供商设置

  1. 登录 Dify 控制台
  2. 点击头像 → 设置
  3. 从左侧菜单选择 模型提供商

2. 添加 OpenAI-API-compatible

  1. 在提供商列表中找到 OpenAI-API-compatible
  2. 点击 添加模型

3. 填写配置信息

参数
模型名称gpt-4o(或您期望的模型 ID)
API Key您的 ai.TokenHub API Key
API Base URLhttps://ai-tokenhub.com/v1

4. 设置模型参数

参数推荐值
Context Window128000
Max Tokens16384
Streaming✅ 启用
Function Calling✅ 支持(如需要)
Vision✅ 支持(如使用多模态模型)

5. 保存并测试

保存后,点击模型名称旁边的 测试 按钮发送测试消息。

多模型配置

添加 Claude 模型

重复上述步骤,填写模型名称:

模型模型名称
Claude 3.5 Sonnetclaude-3-5-sonnet-20241022
Claude 3 Opusclaude-3-opus-20240229

完整配置示例

模型模型名称API Base URL
GPT-4ogpt-4ohttps://ai-tokenhub.com/v1
GPT-4o-minigpt-4o-minihttps://ai-tokenhub.com/v1
Claude 3.5 Sonnetclaude-3-5-sonnet-20241022https://ai-tokenhub.com/v1
Gemini 3 Progemini-3-prohttps://ai-tokenhub.com/v1

Python 验证脚本

在 Dify 中配置之前,您可以使用 Python 验证 API 连接:

python
from openai import OpenAI

client = OpenAI(
    api_key="your_api_key",
    base_url="https://ai-tokenhub.com/v1"
)

response = client.chat.completions.create(
    model="gpt-4o",
    messages=[
        {"role": "user", "content": "你好,测试连接"}
    ],
    stream=True
)

for chunk in response:
    if chunk.choices[0].delta.content:
        print(chunk.choices[0].delta.content, end="", flush=True)

常见问题

Base URL 末尾多了斜杠

❌ 错误:https://ai-tokenhub.com/v1/ ✅ 正确:https://ai-tokenhub.com/v1

模型名称区分大小写

确保模型名称与 ai.TokenHub 平台上的模型 ID 完全匹配。

请求失败 404

检查 Base URL 是否正确,末尾是否有多余的 /

Docker 部署 Dify

bash
git clone https://github.com/langgenius/dify.git
cd dify