Stigmer MCP Server

使用说明

  • 项目简介
    • Stigmer 的 MCP 服务器是一个后端服务,负责托管和管理资源(Resources)、注册与执行工具(Tools),以及定义与渲染 Prompt 模板(Prompts)。它通过 JSON-RPC 与客户端通信,支持会话管理、能力声明和多种传输协议(如 Stdio、SSE、WebSocket 等),为 LLM 应用提供可扩展的上下文服务框架。
  • 主要功能点
    • MCP 协议核心处理:解析、请求分发、响应构造,确保与 MCP 客户端的 JSON-RPC 交互规范一致。
    • 资源管理(Resources):提供对资源的创建、读取、更新、删除以及查询能力,便于客户端在运行时获取上下文数据和数据访问能力。
    • 工具注册与执行(Tools):注册可调用的外部工具,并在需要时由 MCP 服务器或代理调用。
    • Prompt 模板定义与渲染(Prompts):支持定义和渲染可定制的提示模板,便于 LLM 的上下文构造与对话模式定制。
    • MCP 网关与 IDE 集成:提供与 AI IDE/前端环境的网关,确保 IDE 能够以统一接口访问 stigmer-server。
    • 会话与权限管理:服务端负责会话管理、能力声明和资源访问控制,确保多租户环境中的安全性与隔离性。
    • 多传输协议支持:为不同场景提供传输层支持,适配 STDIO、SSE、WebSocket 等传输方式。
    • Protobuf/gRPC 与 JSON-RPC 协同:作为 MCP 的契约层,定义并实现多语言期望的接口,确保 CLI、SDK、IDE 以及云端组件之间的互操作性。
  • 安装与运行
    • 本仓库提供本地开发/构建与部署方式,核心入口通常为 stigmer 命令行工具:
      • 部署本地服务器(开发/调试场景):
        • 直接运行 stigmer server,初始化并启动本地服务,默认工作端口在 localhost:7234。
      • 启动 MCP 服务器网关:
        • 运行 stigmer mcp-server 启动 MCP 网关/服务器,作为与前端 IDE、外部客户端对接的入口。
    • 构建与依赖
      • 通过仓库提供的构建脚本或 Makefile 进行本地构建(包括后端服务、CLI、SDK 及骨架代码)。
      • 需要 Go 1.25+、以及 Python 运行环境(若使用 Agent Runner),以及相关 Proto/Buf 依赖。
  • 服务器配置(JSON 格式,供 MCP 客户端进行连接配置)
    • serverName: stigmer-mcp-server
    • command: stigmer
    • args: ["mcp-server"]
    • description: MCP 服务器入口,需提供资源、工具、Prompt 的上下文渲染能力,并对外暴露 JSON-RPC/MCP 接口
    • port: 7234
    • notes: MCP 客户端连接此服务器后,通过预定义的 JSON-RPC 规范发送读取资源、调用工具、获取 Prompts 的请求,服务器返回标准 JSON-RPC 响应
  • 基本使用方法
    • 启动与连接
      • 启动 stigmer mcp-server,等待服务器初始化完成,默认监听 localhost:7234。
      • MCP 客户端通过 JSON-RPC 调用服务器的资源读取、工具调用与 Prompt 获取等接口。
    • 常用操作
      • 读取资源:客户端发送 ReadResource 请求,获取资源数据及权限信息。
      • 调用工具:客户端调用 Tool 执行入口,传递所需参数并获取执行结果。
      • 获取 Prompts:客户端请求 Prompt 模板,服务器返回可用模板及渲染参数。
    • 会话与安全
      • 服务端管理会话、权限与能力声明,确保跨租户访问控制和资源隔离。
    • 维护与扩展
      • 通过提供的 MCP 代码生成与 protobuf 结构,开发者可扩展新的资源类型、工具和提示模板,并按需对接到现有 MCP 网关中。

服务器信息