Prime Workflow MCP 服务端
- 项目简介
- 该仓库实现了一个基于 MCP 的后端服务器,用于向大型语言模型客户端提供上下文、工具调用和提示模板等能力,支持通过标准化的 JSON-RPC 方式进行请求与响应。
- 主要功能点
- 工具注册与执行:通过 FastMCP 将工具注册到服务器,LLM 客户端可调用如创建 Confluence 页面、发送部署邮件、获取 Swagger 文档等工具。
- 资源与数据能力:结合多个微服务,提供对外部系统的查询和操作能力,作为 LLM 的上下文与执行入口。
- 提示与模板渲染:为与 LLM 的交互提供可定制的 Prompt 片段和渲染逻辑,便于统一对话风格与任务执行过程。
- 多传输协议支持:在实现中通过 stdio 的 MCP 传输模式进行演示,理论上也支持 SSE、WebSocket 等传输,提升上下文服务的可扩展性与安全性。
- 安全与扩展性:服务器端负责注册、会话管理和能力声明,便于后续扩展资源、工具、以及提示模板的能力谱系。
- 安装与运行
- 构建全仓库:pnpm build
- 运行 MCP 服务器(示例,实际路径请按环境调整):
- 使用 node 运行打包后的入口程序,例如:node /path/to/nemo-cli/packages/ai/dist/index.js
- 注:MCP 客户端需要在其配置中指向服务器的启动命令及参数,以建立连接。
- 服务器配置(MCP 客户端使用的 JSON 配置示例)
{
"Prime Workflow": {
"command": "node",
"args": ["/path/to/nemo-cli/packages/ai/dist/index.js"]
}
// 该配置用于 MCP 客户端创建并启动对该 MCP 服务端的连接
}
说明:
- server name 对应服务器显示名称,这里为 "Prime Workflow"。
- command/args 指定启动服务器的实际执行命令及参数,客户端无需也不可直接访问服务器内部实现细节。
- 基本使用方法
- 客户端连接: 使用上面的 JSON 配置在 MCP 客户端中声明服务器启动命令与参数,启动后即可通过 JSON-RPC 方式请求服务。
- 调用工具与资源: LLM 客户端通过 MCP 提供的工具接口调用外部功能(如创建 Confluence 页面、发送邮件等),并可获取工具执行结果以驱动后续对话与推理。
- 扩展性与维护: 服务器端可以继续注册更多工具、资源和提示模板,以适应更多业务场景与交互模式。