使用说明
项目简介
Smart MCP Server 是一个强大的中间件,充当 AI 模型和工具之间具备上下文感知能力的桥梁。它分析用户上下文、历史模式和内容,智能地呈现最相关的工具,从而提高效率并减少认知负荷。此仓库提供核心服务器、上下文感知选择器以及与包括 Google Gemini API 在内的各种服务的集成。
主要功能点
- 上下文感知工具选择:根据用户消息内容和上下文、历史使用模式、工具类别(文件系统、代码编辑、AI 等)以及必要工具指定,智能选择和呈现工具。
- 工具服务器架构:管理多个工具服务器实例,具备服务器生命周期管理、工具注册、执行代理和错误处理等功能。
- Gemini API 集成:完全集成 Google Gemini 模型,支持文本生成、JSON 响应格式化、流式传输能力和高级模型配置。
- 工作流系统:定义、执行和监控复杂工作流,支持顺序和并行步骤执行、依赖管理、变量存储和注入、进度监控和执行历史。
- 文档自动化:提供工具以收集和摄取文档,支持仓库扫描、Markdown 解析、文档结构分析和知识集成。
安装步骤
-
克隆仓库:
git clone https://github.com/reconsumeralization/smart-mcp-server.git cd smart-mcp-server -
安装依赖:
npm install -
配置环境变量:
cp .env.example .env # 编辑 .env 文件,根据需要配置您的环境变量,例如 Gemini API 密钥 (GEMINI_API_KEY) 等。
服务器配置
对于 MCP 客户端,您需要配置连接到 Smart MCP Server 的信息。以下是一个示例 'server' 配置的 JSON 结构,您需要将其添加到 MCP 客户端的配置文件中。请注意,Smart MCP Server 本身即为 MCP 服务器,因此 'command' 指向服务器的启动脚本。
{ "servers": [ { "name": "SmartMCP", "type": "stdio", "command": "npm", "args": ["run", "server"], "description": "Smart MCP Server 实例", "priority": 1 } ] }
配置参数说明:
- 'name': 服务器名称,可以自定义,例如 "SmartMCP"。
- 'type': 连接类型,这里使用标准输入输出流,配置为 "stdio"。
- 'command': 启动服务器的命令,这里使用 'npm' 运行 'server' 脚本 (package.json 中定义)。
- 'args': 传递给命令的参数,这里使用 '["run", "server"]' 来执行 'npm run server'。
- 'description': 服务器描述,用于客户端显示,例如 "Smart MCP Server 实例"。
- 'priority': 服务器优先级,数值越大优先级越高。
基本使用方法
-
启动服务器:在仓库根目录下,运行以下命令启动 Smart MCP Server:
npm run server -
测试客户端:可以使用仓库中提供的 'test-client.js' 进行测试,或者使用任何兼容 MCP 协议的客户端连接到服务器地址(默认为 'http://localhost:3000')。
-
运行测试客户端:
node test-client.js -
您可以在测试客户端的交互式菜单中选择不同的操作,例如获取工具列表、执行工具、查看服务器健康状态等,以验证 Smart MCP Server 的功能。
-
-
工作流使用:可以通过 POST 请求到 '/api/workflows' 注册工作流,并通过 POST 请求到 '/api/workflows/{id}/execute' 执行已注册的工作流。具体的工作流定义和 API 使用方法可以参考仓库中的 'workflow-api.js' 和 'examples' 目录下的示例。
信息
分类
AI与计算