基于 Model Context Protocol (MCP) 的本地服务器实现,提供对浏览器标签、分组、窗口等资源的访问、工具的注册与执行,以及提示模板的定义与渲染,供外部大语言模型(LLM)客户端通过 JSON-RPC 进行上下文查询、操作与交互。
基于 Model Context Protocol (MCP) 的本地后端,提供对 Semantic Scholar 的论文、作者等信息的资源、工具和提示模板的管理与渲染,通过 JSON-RPC 与客户端进行通信,支持多工具调用、批量检索与健康检查等核心功能。
基于 Model Context Protocol 的本地 MCP 服务器实现,提供统一的资源、工具和提示模板的托管与数据访问能力,并通过 JSON-RPC 与 LLM 客户端通信,为 WPS Office 提供可扩展的上下文服务。
基于 Model Context Protocol 的本地 MCP 服务器实现,提供对 Planet API 的上下文访问、工具调用与提示渲染能力,帮助大语言模型在本地环境中高效地与 Planet 数据和功能交互。
基于 Model Context Protocol 的 MCP 服务器实现,用于将一个 Discord 自助账户的资源、工具与对话模板通过标准化的 MCP JSON‑RPC 后端对接到 LLM 客户端,支持 stdio 传输并以 JSON-RPC 提供资源、工具执行与提示渲染等功能。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供对资源、工具和提示模板的管理与执行,支持通过 JSON-RPC 与 MCP 客户端通信,并具备标准化的服务器端会话管理和多传输模式能力(如 StdIO)。
Simona AI助手项目中的一个简单的Todo MCP服务器示例,提供基本的待办事项管理功能,可以通过MCP协议与LLM客户端进行交互。