Introspectum MCP 服务端

使用说明(Markdown 格式)

  • 项目简介
    • Introspectum 的 MCP 服务端是一个可运行的后端服务器,负责为 LLM 客户端提供标准化的上下文资源、工具注册与执行能力,以及提示模板的管理与渲染。它通过 JSON-RPC 风格的请求/响应进行通信,并在服务器端管理会话、能力声明等元数据,支持多种传输模式的扩展(当前实现示例采用 STDIN/STDOUT 传输,便于在开发阶段快速对接)。
  • 主要功能点
    • 资源与工具管理:托管和查询资源、注册和调用工具定义以便 LLM 调用外部功能。
    • 工具执行与能力声明:将工具定义暴露给客户端,处理工具调用并返回结果。
    • 会话与版本信息:提供服务端的能力声明、版本信息及会话上下文管理接口。
    • 传输与扩展:当前示例以 STDIN/STDOUT 实现传输,后续可扩展为 SSE、WebSocket 等传输通道。
  • 安装步骤
    • 确保已安装 Rust(如 rustup、cargo)。
    • 克隆并进入项目根目录。
    • 使用 cargo 构建:cargo build --release
    • 运行服务端(示例命令):cargo run -- serve --host 127.0.0.1 --port 3000
  • 服务器配置(面向 MCP 客户端,不需要你在此侧暴露前端 UI)
    • MCP 客户端需要一个简单的配置来知道如何启动并连接到服务端。以下为可用于客户端的配置信息示例(以 JSON 表示,描述服务器所属、启动命令及参数等信息;客户端无需直接执行服务器端代码,仅需知道如何启动并连接): { "server_name": "introspectum", "start_command": "cargo run", "start_arguments": ["--", "serve", "--host", "127.0.0.1", "--port", "3000"], "description": "用于与模型协作的上下文服务后端,提供资源、工具和提示模板的管理与执行能力", "version": "0.1.0", "notes": "此配置用于说明客户端如何启动并连接到服务器。实际部署时请按环境调整启动命令与参数。" }
  • 基本使用方法
    • 启动后端服务并监听端口(示例端口:3000)。
    • 客户端通过 JSON-RPC 的 initialize、tools/list、tools/call 等请求与服务端交互,获取工具列表、调用工具并获取结果。
    • 客户端可以查询资源、注册工具、执行工具调用,以及获取跨域查询或行为分析结果等能力输出。
    • 如需扩展传输:未来可将传输改为 SSE、WebSocket 等,服务端会在能力声明中暴露对应传输方式。

服务器信息