• 使用简介
    • 该项目整合了一个基于 MCP 的服务器端,核心能力包括:托管和管理资源与数据资源、注册并执行工具、定义并渲染 Prompt 模板,以及通过 JSON-RPC/Streamable HTTP 等协议与 AI 客户端进行通信。
    • 服务器具备健康检测、多传输协议支持(HTTP/WS、STDIO 及 GUI 前端)、以及面向 Cherry Studio 等 MCP 客户端的集成能力。
  • 主要功能点
    • MCP 核心通信:解析 MCP 请求、返回 MCP 响应,提供统一的 JSON-RPC 约定。
    • 资源与数据:资源/数据的托管、查询及权限控制,便于 LLM 客户端获取上下文信息。
    • 工具注册与执行:提供多种工具(如绘制覆盖、截图、输入模拟、剪贴板等),支持在不同模式下执行并返回结构化结果。
    • Prompt 模板与渲染:支持可定制的提示模板,辅助 LLM 与应用交互的对话模式。
    • 会话与能力声明:服务端管理会话、能力声明与权限控制,确保多客户端环境中的安全性与可扩展性。
    • 传输协议与前端:提供 HTTP/WS、STDIO 等传输选项,以及前端管理界面与 API 健康检查接口。
  • 安装步骤
    • 获取源码:克隆仓库,进入项目根目录。
    • 构建服务器:在合适的工作环境中执行对应语言的构建命令(如 .NET 构建、Rust 构建等)。确保依赖和运行环境配置正确。
    • 启动服务器:使用支持的传输模式(默认 HTTP/WS)启动 MCP 服务器;如需 STDIO 模式,请按文档切换传输参数。
    • 验证运行状态:通过健康接口 /health 及 MCP 配置端点 /mcp-config 或 /config/ 测试基本功能。
  • 服务器配置(示例 JSON,供 MCP 客户端参考;客户端不需要此信息) { "server_name": "Overlay Companion MCP Server", "description": "MCP backend for Overlay Companion: 提供资源、工具和 prompts 的 MCP 服务", "command": "dotnet", "args": ["path/to/OverlayCompanion.dll", "--http"], "transport": "http", "health_endpoint": "http://localhost:8080/health", "mcp_endpoint": "http://localhost:3000/", "notes": "该配置用于 MCP 客户端连接服务器的元信息,包含服务器名称、启动命令及参数等。MCP 客户端无需此配置信息但在文档中可用于快速对接。" }
  • 基本使用方法
    1. 启动 server:在支持的运行环境中执行上述启动命令,确保网络、防火墙等未阻断 HTTP/WS 流量。
    2. 连接 MCP 客户端:在客户端配置中指定服务器的 MCP 入口(如 http://<服务器地址>:<端口>/),并使用 MCP 协议进行初始化、工具列表查询与工具调用等操作。
    3. 使用工具和资源:通过 MCP 客户端调用工具(如 draw_overlay、take_screenshot、set_clipboard 等),服务器返回标准化的 JSON-RPC 响应,便于 AI 客户端处理结果。
    4. 监控与诊断:使用 /health、/mcp-config、/config 等接口进行健康自检和配置查看,确保多客户端环境下的互操作性。

信息

分类

桌面与硬件