使用说明

项目简介

Smart MCP Server 是一个强大的中间件,充当 AI 模型和工具之间具备上下文感知能力的桥梁。它分析用户上下文、历史模式和内容,智能地呈现最相关的工具,从而提高效率并减少认知负荷。此仓库提供核心服务器、上下文感知选择器以及与包括 Google Gemini API 在内的各种服务的集成。

主要功能点

  • 上下文感知工具选择:根据用户消息内容和上下文、历史使用模式、工具类别(文件系统、代码编辑、AI 等)以及必要工具指定,智能选择和呈现工具。
  • 工具服务器架构:管理多个工具服务器实例,具备服务器生命周期管理、工具注册、执行代理和错误处理等功能。
  • Gemini API 集成:完全集成 Google Gemini 模型,支持文本生成、JSON 响应格式化、流式传输能力和高级模型配置。
  • 工作流系统:定义、执行和监控复杂工作流,支持顺序和并行步骤执行、依赖管理、变量存储和注入、进度监控和执行历史。
  • 文档自动化:提供工具以收集和摄取文档,支持仓库扫描、Markdown 解析、文档结构分析和知识集成。

安装步骤

  1. 克隆仓库:

    git clone https://github.com/reconsumeralization/smart-mcp-server.git
    cd smart-mcp-server
  2. 安装依赖:

    npm install
  3. 配置环境变量:

    cp .env.example .env
    # 编辑 .env 文件,根据需要配置您的环境变量,例如 Gemini API 密钥 (GEMINI_API_KEY) 等。

服务器配置

对于 MCP 客户端,您需要配置连接到 Smart MCP Server 的信息。以下是一个示例 'server' 配置的 JSON 结构,您需要将其添加到 MCP 客户端的配置文件中。请注意,Smart MCP Server 本身即为 MCP 服务器,因此 'command' 指向服务器的启动脚本。

{
  "servers": [
    {
      "name": "SmartMCP",
      "type": "stdio",
      "command": "npm",
      "args": ["run", "server"],
      "description": "Smart MCP Server 实例",
      "priority": 1
    }
  ]
}

配置参数说明:

  • 'name': 服务器名称,可以自定义,例如 "SmartMCP"。
  • 'type': 连接类型,这里使用标准输入输出流,配置为 "stdio"。
  • 'command': 启动服务器的命令,这里使用 'npm' 运行 'server' 脚本 (package.json 中定义)。
  • 'args': 传递给命令的参数,这里使用 '["run", "server"]' 来执行 'npm run server'。
  • 'description': 服务器描述,用于客户端显示,例如 "Smart MCP Server 实例"。
  • 'priority': 服务器优先级,数值越大优先级越高。

基本使用方法

  1. 启动服务器:在仓库根目录下,运行以下命令启动 Smart MCP Server:

    npm run server
  2. 测试客户端:可以使用仓库中提供的 'test-client.js' 进行测试,或者使用任何兼容 MCP 协议的客户端连接到服务器地址(默认为 'http://localhost:3000')。

    • 运行测试客户端:

      node test-client.js
    • 您可以在测试客户端的交互式菜单中选择不同的操作,例如获取工具列表、执行工具、查看服务器健康状态等,以验证 Smart MCP Server 的功能。

  3. 工作流使用:可以通过 POST 请求到 '/api/workflows' 注册工作流,并通过 POST 请求到 '/api/workflows/{id}/execute' 执行已注册的工作流。具体的工作流定义和 API 使用方法可以参考仓库中的 'workflow-api.js' 和 'examples' 目录下的示例。

信息

分类

AI与计算