使用说明
-
项目简介
- Edda 提供一个 MCP 集成组件,用于把 durable 工作流、资源和工具暴露给 AI 客户端(如 Claude 等)以实现长期、可查询的上下文服务。MCP 服务器负责对外提供统一的接口,以 JSON-RPC 形式处理资源读取、工具调用、以及 Prompt 的渲染与执行等能力,并支持会话管理、能力声明以及多种传输协议(如 Stdio、SSE、WebSocket)的接入。
-
主要功能点
- Resource (资源) 管理与数据访问:以标准化方式托管和暴露资源,便于 LLM 客户端查询和消费。
- Tools (工具) 注册与执行:注册外部功能,LLM 可以通过 MCP 调用工具。
- Prompts 定义与渲染:提供可自定义的 Prompt 模板,便于基于工作流状态渲染对话上下文。
- JSON-RPC 通信:统一的请求/响应格式,便于客户端与服务器端交互。
- 会话与能力声明:服务器端维护会话、能力树和调用权限,提供安全、可扩展的上下文服务。
- 多传输协议支持:通过不同传输协议实现交互,如标准 HTTP/WebSocket 等,方便嵌入到现有应用中。
- 与 EdDA 框架的无缝结合:可以直接把 EdDA 的 durable workflows 暴露为 MCP 工具,供 LLM 调用与分析。
-
安装步骤
- 在本地或服务器环境中安装 EdDA 框架及 MCP 集成组件(通常通过 Python 包管理工具安装)。
- 如需运行 MCP 服务器,请按 README 指示部署方式获取 MCP 服务器应用入口。
-
服务器配置(面向 MCP 客户端的配置信息)
- 配置信息采用 JSON 格式,描述服务器名称、启动命令及参数等,用于 MCP 客户端在连接服务器时了解如何启动和连接。
- 以下信息供参考(请以实际部署时的实现细节为准): { "server_name": "edda-mcp-server", "description": "基于 Model Context Protocol 的 EdDA MCP 服务器,暴露资源、工具与 Prompts,支持 durable workflows 的 LLM 调用与分析。", "command": "uvicorn", "args": [ "edda.integrations.mcp:server_app", "--host", "0.0.0.0", "--port", "8000" ], "transport_protocols": ["http", "websocket"], "notes": "server_app 表示暴露 MCP ASGI 应用的入口点,具体实现可能以 server.asgi_app() 的形式提供。请确保环境中已安装所需依赖,并按实际代码路径进行调整。" }
-
基本使用方法
- 启动服务器:运行配置中的命令与参数,启动后服务器将监听 MCP 客户端的 JSON-RPC 请求。
- 连接客户端:MCP 客户端通过 JSON-RPC 发送请求(如读取资源、执行工具、获取 Prompt 等),服务器返回标准化的 JSON-RPC 响应或通知。
- 组织与扩展:通过注册 Resources、Tools 与 Prompts,及必要的鉴权和会话管理,确保不同 LLM 客户端能以标准化方式进行交互。
- 部署建议:对生产环境,建议结合 EdDA 的持久化存储(PostgreSQL/MySQL 等)以及更成熟的鉴权/审计策略,确保多实例部署下的上下文一致性与安全。
-
基本注意事项
- MCP 客户端需要的仅是服务器地址、接口描述等信息,用以建立连接并发起资源/工具/提示的请求。
- MCP 服务端实现应包含:请求解析、资源/工具/提示的路由、错误处理、以及对工作流执行的合理封装与隔离。
信息
分类
AI与计算