使用说明
项目简介
Dify AI MCP Server 是一个基于 Model Context Protocol (MCP) 的服务器实现,旨在将 Dify AI 的强大聊天补全功能以及一个餐厅推荐工具(meshi-doko)以标准化的方式提供给支持 MCP 协议的 LLM 客户端,例如 Claude Desktop。通过该服务器,LLM 可以调用 Dify AI 的能力,实现更丰富的交互体验。
主要功能点
- Dify AI 聊天能力集成: 允许 LLM 客户端通过 MCP 协议调用 Dify AI 的聊天补全 API。
- 餐厅推荐工具 (meshi-doko): 提供了一个示例工具,可以根据用户的位置和预算,向 Dify AI 发送查询以获取餐厅推荐。
- 对话上下文支持: 支持通过 'conversation_id' 参数维护与 Dify AI 的对话上下文。
- 流式响应: 支持从 Dify AI API 获取流式响应数据。
安装步骤
- 安装 NPM 包: 使用 npm 安装 '@modelcontextprotocol/server-dify' 包。
npm install @modelcontextprotocol/server-dify
服务器配置
要使 MCP 客户端(例如 Claude Desktop)能够连接到 Dify AI MCP 服务器,您需要在客户端的配置文件中添加服务器配置信息。以下是 Claude Desktop 的 'claude_desktop_config.json' 配置文件示例:
{ "mcpServers": { "dify": { "command": "npx", "args": [ "-y", "@modelcontextprotocol/server-dify", "YOUR_DIFY_API_ENDPOINT", "YOUR_DIFY_API_KEY" ] } } }
参数说明:
- 'server name': 'dify' (服务器名称,可以自定义,用于在客户端中标识该服务器)
- 'command': 'npx' (启动服务器的命令,'npx' 用于执行本地或 npm 包提供的可执行文件)
- 'args': 启动参数,是一个字符串数组,包括:
- '"-y"': (可选) 'npx' 的参数,用于跳过安装包时的确认提示。
- '"@modelcontextprotocol/server-dify"': 要执行的 npm 包和可执行文件。
- '"YOUR_DIFY_API_ENDPOINT"': 请替换为您的 Dify API Endpoint。您需要从 Dify AI 平台获取 API Endpoint。
- '"YOUR_DIFY_API_KEY"': 请替换为您的 Dify API Key。您需要从 Dify AI 平台获取 API Key,用于服务器认证。
注意: 请务必将 'YOUR_DIFY_API_ENDPOINT' 和 'YOUR_DIFY_API_KEY' 替换为您在 Dify AI 平台获得的真实 API Endpoint 和 API Key。请妥善保管您的 API Key,避免泄露。
基本使用方法
- 配置 MCP 客户端: 根据上述服务器配置信息,配置您的 MCP 客户端(例如 Claude Desktop)。
- 启动 MCP 客户端: 启动配置好的 MCP 客户端。客户端会自动连接到 Dify AI MCP 服务器。
- LLM 调用工具: 在 LLM 客户端中,您应该能够看到 'meshi-doko' 工具。LLM 可以调用该工具,并根据工具的参数描述(位置、预算、查询语句)提供输入,从而利用 Dify AI 的聊天能力进行餐厅推荐或其他基于 Dify AI 的对话交互。
例如,LLM 可以指示 "使用 'meshi-doko' 工具在北京查找预算为 500 元的餐厅" ,MCP 服务器会将请求转发到 Dify AI 并将结果返回给 LLM 客户端。
信息
分类
AI与计算