AI Context MCP 服务器
使用说明(Markdown格式)
- 项目简介
- 该仓库实现了一个基于 MCP 的服务端,用于向 LLM 客户端提供统一的上下文服务:管理资源、注册和执行工具、定义和渲染提示模板,并通过 MCP 协议与客户端通信。
- 主要功能点
- MCP 服务端实现:提供核心的工具注册、资源注册、提示模板注册等能力,客户端可通过 MCP 请求进行资源读取、工具调用、以及提示渲染等操作。
- 资源与知识图谱管理:通过数据库保存上下文项、关系、提交记录等,支持跨工具的语义检索与关系查询。
- 工具与模板支持:定义多种工具接口,处理工具调用,并提供可扩展的提示模板系统,便于 LLM 的交互驱动。
- Embeddings 与智能分析(可选):集成 OpenRouter/OpenRouter 风格的嵌入服务,用于语义搜索与知识检索(在可用 API Key 时启用)。
- 可扩展的跨工具导出与 Shadow 文件:提供跨工具导出能力,将上下文导出为 Copilot、Cline、Windsurf、Antigravity、Aider、Continue 等格式,便于在不同工具中使用。
- 支持多传输与会话管理:设计上兼容 Stdio、HTTP/Websocket 等传输,具备会话与会话状态管理能力。
- 安装与运行步骤
- 全局/仓库环境准备
- 克隆仓库并安装依赖(在支持的 Node/TypeScript 环境中执行)
- 安装依赖后进行编译构建(若存在构建步骤,请执行相应的构建命令)
- 启动 MCP 服务器
- 运行命令:ai-context mcp
- 或在本地按需要启动打包后的 MCP 服务器,命令类似:node dist/server.js(取决于构建产物路径)
- 启动时,若需要 OpenRouter 的嵌入检索能力,请设置 OPENROUTER_API_KEY 环境变量
- 访问与测试
- MCP 客户端需要提供一个配置,指明服务器名称、启动命令和参数等,以便建立连接
- 客户端通过 MCP 协议向服务器发起资源读取、工具调用、Prompt 获取等请求
- 服务器配置(给 MCP 客户端的连接配置示例) 说明:以下字段用于描述如何在 MCP 客户端配置一个服务器连接。服务器名称、启动命令及参数需要由客户端进行对接,具体路径可根据实际部署调整。
{ "server": "ai-context", // MCP 服务器名称,与服务端注册的名称对应 "command": "node", // 启动服务器的命令 "args": [ "/path/to/ai-context-mcp-server/dist/server.js" ], // 启动命令的参数,指向打包后的 MCP 服务端入口 "env": { "OPENROUTER_API_KEY": "your-openrouter-key" // 如使用嵌入检索,请提供 API Key } }
参数说明
- server: MCP 服务器在客户端侧的标识名称,需与服务器端注册的名称保持一致。
- command: 启动 MCP 服务器的可执行命令,通常为 node。
- args: 启动命令的参数,包含入口文件路径(dist/server.js 或等效打包产物)。
- env: 运行时环境变量,客户端如果需要使用 OpenRouter/嵌入服务,请配置相应的 KEY。
- 基本使用方法
- 客户端连接:在 MCP 客户端中使用上述配置连接服务器,发送读取资源、调用工具、获取 Prompts 等请求。
- MCP 服务端功能:服务器端会响应 JSON-RPC 风格的请求,执行对应的工具、资源访问、Prompts 渲染等逻辑,必要时对跨工具的导出、知识图谱查询等提供支持。
- 安全与扩展:确保环境变量(如 OpenRouter KEY)等敏感信息的安全管理,按需开启/禁用嵌入和分析能力;服务器具备扩展点,便于添加更多工具、资源及 Prompts。
-
关键词 AI上下文、知识图谱、语义检索、跨工具导出、嵌入服务
-
分类 6