OpenCode Spec Kit MCP 服务器框架

使用说明(Markdown 格式)

  • 项目简介

    • 该仓库提供一个面向 MCP 的服务器框架,围绕内存化上下文、资源与工具管理、以及可渲染的 Prompt 模板,帮助 LLM 客户端以统一的协议获取所需上下文和能力。
  • 主要功能点

    • 资源与内存管理:托管并索引可访问的资源,支持跨会话的上下文记忆与检索。
    • 工具注册与执行:定义并暴露外部工具,LLM 可以通过 MCP 调用执行外部功能。
    • Prompt 模板渲染:定义和渲染可定制的 Prompt 模板,支持不同交互模式。
    • JSON-RPC 通信:服务器通过 JSON-RPC 与客户端交互,处理请求与返回结果。
    • 会话与能力声明:实现会话管理、能力对外声明,以及多传输协议(如 Stdio、SSE、WebSocket)的支持。
    • 资源与工具的版本化与验证:提供模板、内存、资源的版本化管控和验证规则。
  • 安装步骤

    1. 准备运行环境:确保 Node.js 运行环境就绪,具备网络访问能力以下载依赖(如 Embedding 提供商等)。
    2. 安装依赖与构建:在项目根目录执行安装流程,安装 MCP 相关服务的依赖项与数据库组件(如本地向量数据库、嵌入服务等)。
    3. 配置 MCP 服务器:按需要配置 server 名称、启动命令与参数,以及传输协议等选项。
    4. 启动 MCP 服务器:运行配置好的启动命令,监听客户端的 MCP 请求。
    5. 客户端对接:按照 MCP 客户端的要求提供配置项(启动命令、参数等)以建立连接。
  • 服务器配置(示例,实际部署请结合仓库中的默认配置与环境变量调整) { "server_name": "opencode-mcp-spec-kit", "command": "node", "args": [ "mcp_server/index.js", "--config", "mcp_server/config.json" ], "transport": "stdio", "log_level": "info", "working_directory": "/path/to/your/project", "env": { "EMBEDDINGS_PROVIDER": "hf-local", "VOYAGE_API_KEY": "", "OPENAI_API_KEY": "", "HF_EMBEDDINGS_MODEL": "nomic-ai/nomic-embed-text-v1.5" } }

  • 基本使用方法

    • 启动前请确认所有依赖与服务就绪(如本地向量服务、嵌入提供商、数据库等)。
    • 使用 MCP 客户端连接时,请在客户端配置中提供上述 server_name、command、args 等信息,以建立 JSON-RPC 通信。客户端无需了解服务器内部实现细节,只需知道如何通过配置连接即可。
    • 客户端发起请求时,按照 MCP 的资源读取、工具调用、以及 Prompt 获取等请求类型进行通信,服务器端会返回 JSON-RPC 响应或推送通知。
    • 如需扩展能力(新增 Tools/Resources/Prompts),在服务器端实现并在 MCP 配置中注册即可,确保相应的权限和安全策略受控。

服务器信息