使用说明(Markdown 格式)

  • 项目简介 OpenTiny NEXT-MCP 是一整套基于 Model Context Protocol 的服务器实现,旨在向 MCP 客户端提供资源、工具和 Prompts 的标准化访问与执行能力。核心包括资源托管、工具注册与执行、以及 Prompts 的定义和渲染,通信采用 JSON-RPC 风格,支持多传输场景(如 HTTP 流、StdIO、SSE、WebSocket 等)。

  • 主要功能点

    • 资源管理与数据访问:提供资源的注册、读取和管理能力,方便 LLM 客户端获取上下文数据。
    • 工具注册与调用:注册可被 LLM 调用的外部功能(Tools),并在执行时返回结构化结果给客户端。
    • Prompt 定义与渲染:支持定义与渲染用于 LLM 交互的 Prompt 模板。
    • JSON-RPC 交互:服务器端按统一的 JSON-RPC 规范处理请求与返回响应。
    • 多传输协议支持:搭配 ContentscriptTransport、Content Script Transport、Extension Transport 等实现,兼容多种传输通道(如 Stdio、SSE、WebSocket 等)。
    • 会话与能力声明:具备会话管理、能力声明,以及对外暴露的工具与资源清单。
  • 安装步骤

    • 将代码下载到本地或在项目中引入对应的 MCP 组件与服务端实现。
    • 根据项目环境准备 Node/OpenVite 构建环境,并安装依赖。
    • 根据实际部署场景(网页插件、浏览器扩展、后端服务等)完成构建与打包。
  • 服务器配置(MCP 客户端使用的启动配置,示例说明) 配置文件需要明确定义 MCP 服务器的名称、启动方式以及参数。以下为一个符合仓库结构的示意性配置要素说明(非代码):

    • serverName: sidepanel-mcp-server
      • command: streamableHttp
      • args:
        • url: https://agent.opentiny.design/api/v1/webmcp-trial/mcp?sessionId=sidepanel
        • method: GET 或 POST(取决于传输设计)
      • description: 使用流式 HTTP 与客户端建立 MCP 会话的服务端入口 说明:本仓库中的实现多以通过远端服务提供的 URL 进行连接,例如通过 type 为 streamableHttp 的服务器,URL 指向一个带 sessionId 的端点。实际使用中,请以具体客户端文档或代码注释为准,确保 sessionId 与服务器端匹配。
  • 基本使用方法

    1. 启动 MCP 服务器端组件(如通过构建后的服务或插件入口);
    2. 在 MCP 客户端中配置上述服务器信息,使客户端能通过 JSON-RPC 调用服务器提供的资源、工具与 Prompt;
    3. 使用工具注册、资源访问与 Prompt 渲染等功能,客户端即可通过统一接口向 MCP 服务器请求数据与执行工具;
    4. 如遇跨页面/浏览器扩展场景,确保传输通道(如 Content Script Transport、Extension Transport)正常工作,以实现上下文数据的共享与工具调用。
  • 服务器基本使用方法

    • 注册资源、工具与 Prompt:在 MCP 服务器初始化后,向客户端暴露资源集合、可调用的工具及待渲染的 Prompt 模板。
    • 调用工具:LLM 客户端通过 JSON-RPC 形式请求调用某工具,服务器执行并返回结果。
    • 获取上下文:LLM 客户端可按需请求资源与上下文信息以丰富对话能力。
  • 可能的部署场景

    • 浏览器扩展中作为本地 MCP 服务器集合提供上下文与工具;
    • Web 应用后端集成,充当统一的 MCP 服务端入口;
    • 与多种传输协议协作,提供灵活的上下文服务与工具执行能力。
  1. 关键词:Model Context Protocol, WebMcpServer, 资源管理, 工具注册, Prompts 渲染

  2. 分类ID:6

信息

分类

AI与计算