一个基于 Model Context Protocol (MCP) 的后端服务,加载内置与外部 SOP,将它们作为可调用的提示注册,通过 FastMCP 提供 JSON-RPC 服务供 MCP 客户端访问,用于向大型语言模型提供结构化上下文和功能性提示。
基于 Model Context Protocol 的 MCP 服务器,向大型语言模型客户端提供对 Azure Logic Apps 的资源、工具与工作流定义的标准化访问,使用 JSON-RPC 进行请求/响应,并通过标准的 Stdio 传输实现本地集成与扩展能力。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供 STRIDE 威胁建模框架、工具调用与报告生成功能,支持通过 JSON-RPC 与 LLM 客户端进行上下文管理与协作。
基于 Model Context Protocol 的 MCP 服务器实现,用于通过标准化方式向 LLM 客户端提供 MSSQL 数据库的资源、工具和提示等上下文服务,支持多语言实现(Node 与 .NET 版本)以及基于 JSON-RPC 的交互。
基于 Model Context Protocol 的 MCP 服务器实现,用于向 LLM 客户端提供上下文信息、工具调用通道与 Prompts 渲染等功能;核心通过 JSON-RPC 与客户端通信,示例实现包含最小化的服务器以支持集成测试场景。
基于 Model Context Protocol (MCP) 的观测型后端代理,作为 MCP 客户端与服务器之间的透明中间件,实现对 JSON-RPC 请求/响应的零拷贝透传,同时提供实时可视化、历史日志与可选的审计签名能力,帮助开发者在不干预执行的前提下对工具链进行观测和回放。
基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型客户端提供 Overseerr 集成的上下文信息、工具和提示模板,通过 JSON-RPC 进行通信,并支持 STDIO、SSE/HTTP 等传输通道,便于在 AI 应用中进行资源检索、请求管理与媒体详情查询等功能的上下文服务。
基于 Model Context Protocol 的后端服务器实现,提供资源托管、工具注册与执行、提示模板管理,并通过 JSON-RPC 与客户端进行通信,支持多传输协议、会话管理与权限策略,以为大模型客户端提供安全、可扩展的上下文服务。
基于 Model Context Protocol 的 MCP 服务器实现,提供工具注册与执行、资源访问、以及与 LLM 的对话上下文渲染等核心能力。通过 JSON-RPC 与客户端通信,采用 STDIO 传输实现本地进程间通信,适用于 Claude Code 的 Telegram 插件后端场景。该实现涵盖工具调用、批量通知、审批流、AFK/监听等功能模块,具备完整的服务端能力与测试用例。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 MCP 服务器进程的托管、注册、JSON-RPC 桥接和多会话管理,供 LLM 客户端通过 MCP 获得资源数据、调用工具与渲染 Prompt 模板等上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染,通过 JSON-RPC 与 客户端通信,支持多种传输通道,面向让大语言模型客户端高效获取上下文、能力和工具的后端服务。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源托管、工具注册与执行、Prompt 模板渲染等核心能力,并支持多传输协议(如 WebSocket、MQTT/UDP 等)通过 JSON-RPC 与客户端通信,面向边缘设备和物联网场景的上下文服务解决方案。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、以及 Prompt 模板渲染,支持 stdio、HTTP、SSE 等传输,并通过 JSON-RPC 与客户端进行消息交互,具备会话管理、能力声明及多传输协议支持等能力。
基于 Model Context Protocol 的 MCP 服务端,为 LLM 客户端提供 NiceGUI 资源、工具、文档与示例等能力,并通过 JSON-RPC 与客户端通信,支持资源读取、工具执行、主题索引、示例检索、组件信息查询以及可选的屏幕截图和主提示渲染等功能。
基于 Model Context Protocol (MCP) 的后端实现,提供资源/工具/提示模板的管理与渲染,通过 JSON-RPC 与 LLM 客户端进行交互,支持 HTTP 与 STDIO 等传输模式的多种通信方式。
基于 Model Context Protocol(MCP)的后端服务器实现,面向 LLM 客户端提供资源、工具和 Prompt 的标准化上下文服务,并通过 JSON-RPC 进行通信;支持会话管理、能力声明,以及多传输协议(如 Stdio、SSE、WebSocket)的扩展能力,适用于将 Tana 数据和功能暴露给 AI 模型进行推理、调用和渲染。
基于 Model Context Protocol (MCP) 的后端服务器实现,作为 MCP 服务器提供多昵称通知、工具执行和提示模板渲染,并通过 JSON-RPC 与 MCP 客户端通信。
基于 Model Context Protocol (MCP) 的后端服务器,提供资源、工具、Prompt 的托管、读取和渲染能力,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多传输协议以提供安全、可扩展的上下文服务。
基于 Model Context Protocol 的 MCP 服务器实现,使用 Arivu 的连接器生态在 JSON-RPC 下向 LLM 客户端提供资源、工具与提示模板等上下文信息,并通过标准输入输出(目前实现)进行 JSON-RPC 通信与会话管理。
基于 Model Context Protocol(MCP) 的后端服务,作为本地大模型应用的上下文提供者。该服务器托管与管理 Resources(数据资源)、Tools(可注册并供 LLM 调用的外部功能)以及 Prompts(Prompt 模板渲染),通过 JSON-RPC 与客户端通信,完成会话管理、能力声明以及跨传输协议(如 Stdio、SSE、WebSocket)的上下文服务,方便编辑器、IDE 以及本地模型进行组合式推理与扩展。仓库中明确包含 MCP 集成组件、启动脚本及相关文档,具备对 MCP 客户端的完整支持能力。
基于 Model Context Protocol 的 MCP 服务器实现集合,核心职责是以标准化的 JSON-RPC 方式向 LLM 客户端提供上下文信息和能力:托管与管理 Resources、注册与执行 Tools,并定义/渲染 Prompt 模板,同时支持会话管理与多传输协议,面向 Claude Code 等 LLM 应用的上下文服务后端。该仓库包含可运行的服务模板和示例服务器实现,旨在帮助开发者快速搭建符合 MCP 的后端服务。
基于 Model Context Protocol 的后端服务,向大语言模型客户端提供圣经经文、原文字词、注释及文章等资源的标准化访问与上下文服务,通过 JSON-RPC 进行通信,支持多传输模式、会话管理与能力声明。
基于 Model Context Protocol(MCP)的 StarCraft 回放数据查询服务端,实现了可通过 MCP 客户端以 JSON-RPC 形式查询、获取数据库模式和 StarCraft 知识的后端,支持 SQLite/PostgreSQL 存储和 stdio 传输模式。
基于 Model Context Protocol (MCP) 的后端实现,承担资源、工具、 Prompt 模板等的托管与管理,并通过 JSON-RPC 与 LLM 客户端进行通信,提供会话管理、能力声明、以及多传输协议支持(HTTP、SSE、WebSocket)的上下文服务框架,供前端仪表盘、Captain 编排与代理执行组件协同工作。
基于 Model Context Protocol 的后端服务,通过 JSON-RPC 方式向 LLM 客户端提供监控、部署与故障分析相关的工具接口,支持通过标准化请求-响应模式执行工具、查询部署信息等,服务器端实现了工具注册、请求处理与错误封装,通信以 STDIO 为载体。
基于 Model Context Protocol 的 MCP 服务器,实现对 XPR(Proton 区块链)的工具查询、数据访问与外部部署能力,通过 JSON-RPC 与 MCP 客户端通信,并提供 Azure Functions 部署支持。
一个基于 Node.js 的最小 MCP 服务器实现,公开 WordPress REST API 工具给 MCP 客户端,并通过标准输入输出(stdio)与客户端通信,支持 WordPress 的文章、页面、分类、标签、用户、插件及自定义 CPT 的路由等功能。
基于 Model Context Protocol 的后端 MCP 服务器实现,作为后端上下文服务提供商,向 LLM 客户端以标准化的 JSON-RPC 调用提供资源、工具与提示模板等能力,并通过 MCP 协议进行请求处理与响应返回。该仓库内实现了服务器端工具注册、请求分发以及对 Supabase 等后端的数据访问逻辑,可用于对接外部大模型应用场景。
基于 Model Context Protocol 的 MCP 服务器实现,集成在 EllyMUD 游戏后端,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等能力,便于与大型语言模型或外部 AI 客户端通过 JSON-RPC 进行上下文与功能交互。
基于 Model Context Protocol(MCP)的后端服务器实现,提供面向大语言模型客户端的上下文服务能力,包含工具(Tools)、资源(Resources)和提示模板(Prompts)的注册、管理与执行,支持通过 Spring Boot 部署并对接支持 MCP 的 Agent 客户端。
基于 Model Context Protocol 的后端服务实现,提供资源管理、工具注册与执行、以及提示模板渲染,采用 STDIO 传输用于与 MCP 客户端进行 JSON-RPC 风格的通信,支持多模态上下文的读取、操作和交互。
基于 Crackerjack 的 MCP(Model Context Protocol)服务器实现,提供资源托管与管理、工具注册与执行、以及可渲染的 Prompt 模板等核心能力,通过 JSON-RPC 与客户端通信,并支持多种传输方式(如 WebSocket、StdIO、SSE),为 LLM 客户端提供安全、可扩展的上下文服务框架。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供对资源、工具和提示模板的管理与执行,支持通过 JSON-RPC 与 MCP 客户端通信,并具备标准化的服务器端会话管理和多传输模式能力(如 StdIO)。
基于 Model Context Protocol (MCP) 的后端服务器,提供对 GitHub 的上下文资源、工具执行与提示模板的标准化访问,支持 JSON-RPC 交互,适配多种传输方式并具备会话管理、能力声明与远程工具发现等能力,用于为大语言模型提供可扩展的上下文服务。
基于 Model Context Protocol 的 AutoHotkey v2 MCP 服务器,提供资源、工具、提示词(Prompts)的管理与上下文注入,并通过 JSON-RPC 与客户端进行通信,支持多传输协议(如 STDIO、SSE),实现会话管理和能力声明以服务化地提供上下文服务。
基于 Model Context Protocol 构建的后端服务,为对话型客户端提供标准化的资源管理、工具注册与执行、以及可渲染的提示模板等上下文服务,支持多引擎协同、JSON-RPC 通信以及多种传输协议的 MCP 场景实现。
基于 Model Context Protocol(MCP)的完整服务器实现,提供资源管理、工具注册与执行、Prompts 定义与渲染,以及以 JSON-RPC 形式与客户端通信的能力,支持多传输通道(stdio、SSE、WebSocket)与会话管理,适合作为 LLM 客户端的上下文服务后端。
基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册/执行、提示模板等核心能力,支持 JSON-RPC 通过 WebSocket/HTTP 与客户端通信,内置量子安全加密(Ed25519 与 Dilithium 的混合模式)、W3C DID 身份、审计日志和会话管理,满足企业级的可扩展上下文服务需求。
基于 Model Context Protocol (MCP) 的多模型上下文服务后端,向 LLM 客户端提供资源管理、工具注册与执行、Prompt 模板渲染等核心能力;通过 JSON-RPC 与客户端通信,支持会话管理并兼容多种传输协议(STDIO/SSE/WebSocket),为 AI 应用提供可扩展、安全的上下文服务框架。
基于 WeKnora 的 MCP(Model Context Protocol)服务器实现,向大模型客户端提供标准化的资源、工具与提示模板的上下文服务,并支持多传输协议(如 Stdio、SSE、WebSocket)与会话管理,用于实现安全、可扩展的上下文环境。该服务器通过 JSON-RPC 与客户端进行通信,承载资源访问、工具注册/执行与提示渲染等核心能力。典型场景包括对接外部知识库、执行工具调用、以及渲染与提供定制化的 Prompt 模板。
基于 Model Context Protocol (MCP) 的 CapCut 风格后端服务器,通过 JSON-RPC 与 MCP 客户端通信,提供资源、工具、草稿管理等核心能力,支持把视频/音频/图片等素材以标准化方式暴露给大语言模型等客户端使用。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具调用以及资源渲染的服务端能力,并通过 JSON-RPC/ SSE 方式与客户端通信,支持多会话与会话管理,适用于在后端向 LLM 客户端提供可扩展的上下文服务。
基于 Model Context Protocol 的后端服务,提供资源、工具与提示模板的标准化上下文服务,通过 JSON-RPC 与 LLM 客户端进行交互,当前实现以 STDIO 传输为主要通讯方式,能够托管本地知识库中的日常简报、事实、理事会简报等资源,并暴露查询与渲染工具以支持多样化的 LLM 交互场景。
基于 Model Context Protocol (MCP) 的 HealthSim 后端实现,用于以标准化方式向 LLM 客户端提供上下文信息和功能,包括资源管理、工具注册/执行,以及提示模板渲染。服务器通过 JSON-RPC 与客户端通信,具备会话管理、能力声明,并对接多种传输协议(如 Stdio、SSE、WebSocket),为健康数据生成与模拟应用提供可扩展的上下文服务框架。
基于 Model Context Protocol (MCP) 的后端服务器,作为 VidCap YouTube API 的上下文服务提供方,管理资源与工具,支持 JSON-RPC 的请求/响应,并通过 STDIO、流式 HTTP/WebSocket 等传输方式与 MCP 客户端进行交互,便于 AI 助手在对话中获取视频数据、执行外部功能和渲染提示模板。
基于 Common Lisp 的 MCP(Model Context Protocol)服务器实现,提供资源管理、工具注册与执行、提示模板渲染等核心能力,并通过 JSON-RPC 进行请求/响应。支持多种传输协议(stdio、TCP、HTTP),为大语言模型(LLM)客户端提供可扩展、可安全的上下文服务框架。
基于 Sugar 的 MCP 服务器实现;通过 JSON-RPC 以标准化方式在 STDIN/STDOUT 上与 MCP 客户端通信,提供任务/工具相关的后端能力,并通过 Sugar CLI 实现实际功能调用,作为 Claude Code 与 Sugar 生态的后端上下文与功能提供端。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具和提示模板的注册、路由与 JSON-RPC 响应,作为 Elixir 应用的后端服务,与 Claude Code CLI 控制协议配合使用(支持 in-process 服务器模式)。
基于 MCP 协议的高性能后端服务器实现,提供与 IBKR TWS/Gateway 交互的工具、市场数据、账户信息等能力,通过 JSON-RPC 形式对接 MCP 客户端,并以 Axum 构建的 HTTP/WebSocket 服务提供可扩展的上下文能力。
基于 Model Context Protocol 的后端服务器,为 AI 客户端提供对 Mock Service Worker (MSW) 的统一上下文服务。服务器负责托管资源、注册可执行工具、定义并渲染提示模板,并通过 JSON-RPC/WebSocket 等传输与浏览器中的 MSW 服务工作者进行动态交互和控制。
基于 MCP 的后端服务器实现,提供通过 Cheat Engine 与 LLM 客户端之间的 JSON-RPC 通信,支持内存读取、工具调用以及提示模板渲染等上下文服务的本地化 MCP 服务器。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染能力。通过 JSON-RPC 形式与客户端通信,支持将 LLM 的推理与外部设备(如 Minecraft 实例)进行无缝协作,具备会话管理、能力声明与多传输协议扩展能力(如 Stdio、SSE、WebSocket)的后端上下文服务框架。
基于 Model Context Protocol (MCP) 的 MCP 服务器实现,提供资源管理、工具注册/执行、Prompt 模板定义与渲染等能力,作为后端上下文服务框架供 LLM 客户端通过 JSON-RPC 进行资源访问、外部功能调用与交互模板渲染。仓库中包含多个可运行的 MCP 服务器示例,支持通过标准化接口对接 Claude/LLM 客户端。
基于 Model Context Protocol(MCP)的服务器端实现,提供工具、资源、提示的注册与执行,并通过 JSON-RPC 与客户端进行通信,支持多传输方式(HTTP、stdio、Inspector 调试)以为大语言模型提供可扩展的上下文与功能服务。
基于 Model Context Protocol (MCP) 的后端运行时与代理,提供资源、工具和提示的统一管理,并通过 JSON-RPC 与 MCP 客户端通信,支持多传输协议(stdio、SSE、WebSocket)等,能够在沙箱中运行并托管任意 MCP 兼容的服务器。*
基于 Model Context Protocol(MCP)的服务器实现,提供资源(Notes/边/图)管理、工具注册与执行、以及 Prompt 模板渲染等能力,供大语言模型(LLM)客户端通过 JSON-RPC 调用获取上下文信息、执行外部功能与搭建对话场景。
TEQUMSA_NEXUS 仓库提供以 Model Context Protocol(MCP)为核心的后端服务器实现,涵盖资源、工具、提示模板等资源的托管与管理,以及通过 JSON-RPC 风格接口进行跨节点协同与数据访问,为大语言模型(LLM)客户端提供可扩展的上下文服务框架。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与提示模板的托管与管理,支持 JSON-RPC 客户端交互,并具备会话管理与多传输协议扩展能力,适用于向 LLM 客户端提供可访问的数据、外部功能与定制化提示。
基于 Model Context Protocol (MCP) 的后端服务器,实现了资源(数据)托管、工具注册与执行、以及提示模板渲染等核心能力,并通过 JSON-RPC 方式与客户端通信,具備会话管理、能力声明以及对多传输协议的支持,用于为 LLM 客户端提供可扩展的金融上下文服务。
基于 Model Context Protocol (MCP) 的服务器实现,作为 RSSMonster 应用的 MCP 服务端,向大型语言模型(LLM)客户端提供资源访问、工具执行和提示模板渲染能力。服务器通过 JSON-RPC 与客户端通信,提供对 RSS/文章、分类、订阅等资源的托管与管理,注册并执行工具以调用外部功能,以及渲染与自定义提示模板,且具备会话管理和能力声明,支持通过 HTTP(以及未来扩展的传输协议)进行多路传输。核心实现包含完整的服务端路由、数据库模型、MCP 工具集以及与 AI 相关的分析能力。
基于 Model Context Protocol 的 MCP 服务器实现,用于托管与执行 BL1NK Skills,并集成 AWS Bedrock Nova Lite 进行技能生成与推理,支持资源、工具、提示模板的标准化管理与 JSON-RPC 通信。
该项目为 Storybook 提供 MCP (Model Context Protocol) 服务器,帮助 AI 代理高效理解 UI 组件信息并辅助开发流程。
提供基于 Model Context Protocol (MCP) 的本地服务器,为 LLM 客户端提供 LlamaIndex 生态系统的文档上下文和工具调用能力。
OSVM Unikernel 工具执行器是一个高性能、安全隔离的后端,专为 LLM 客户端通过 vsock 协议调用 MCP 工具而设计。
Enso Labs Orchestra是一个基于MCP和A2A协议的AI代理编排后端,为LLM提供上下文、工具和会话管理。
一个基于 Symfony 框架构建的 MCP 服务器示例,通过 JSON-RPC 协议向 LLM 客户端提供工具服务。
专为本地 Laravel 开发构建的 MCP 服务器,为 AI 客户端提供丰富的项目上下文和操作工具。
一个基于MCP协议的服务器,通过JSON-RPC将思科ISE(Identity Services Engine)数据动态封装为可调用的工具。
基于 TypeScript 的远程 MCP 服务器框架,快速构建并托管 AI 工具和服务。
ACI.dev 是一个开源平台,通过统一的 MCP 服务器和 Python SDK,为 AI Agent 提供安全、可扩展的工具集成和上下文服务。
轻量级 TypeScript 库,用于构建可编排的多智能体 AI 系统,支持 Model Context Protocol (MCP) 服务器集成,提供上下文服务框架。
Coco MCP服务器是 wearable 设备 coco 的后端实现,通过 Model Context Protocol (MCP) 标准协议,为 LLM 应用提供音频数据资源访问和向量检索能力。
TinyMCP Server SDK 是一个轻量级的 C++ SDK,用于构建基于 Model Context Protocol (MCP) 的服务器,专注于通过 JSON-RPC 和 Stdio 提供工具执行能力。
基于Spring MVC和SSE实现的MCP服务器,支持通过JSON-RPC协议与LLM客户端进行上下文信息和功能交互。
一个基于MCP协议的Fetch服务器,可以将URL内容抓取并转换为Markdown格式,优化AI模型的内容输入。
为 Claude, Cursor, WindSurf 等 MCP 客户端提供数据库查询和 schema 上下文的 MCP 服务器。
Emmett MCP 是一个用于构建 Model Context Protocol (MCP) 服务器的 Emmett 框架扩展,支持 SSE 传输协议,为 LLM 客户端提供上下文信息和工具能力。
基于 Internet Computer 的最小化 MCP 服务器实现,目前仅支持工具 (Tools) 功能和 Streamable HTTP。
基于Micronaut框架构建的MCP服务器PoC,专注于提供工具注册和调用功能,通过标准输入/输出与客户端通信。
基于Langchain和NestJS构建的MCP服务器示例,演示了如何使用MCP协议提供上下文信息和工具能力。
通过 JSON-RPC 接口控制 Windows 11 画图程序,实现自动化绘图和图像编辑功能。
基于Model Context Protocol构建的MCP服务器,为Medusa电商平台提供数据访问和功能扩展,支持AI智能体集成。
基于 RESTful API 的 MCP 服务器传输层实现,支持通过 HTTP 协议接收和发送 MCP 消息。
一个基于Model Context Protocol (MCP) 的工具提供服务器,通过JSON-RPC协议向LLM客户端提供工具能力。
基于Model Context Protocol的天气查询服务,通过JSON-RPC协议提供城市、坐标天气查询及天气预报功能,可集成到Cursor等MCP客户端。
基于 MCP 协议的 TypeScript 服务器模板,提供工具注册和标准输入输出通信能力,可快速搭建 MCP 应用后端。
Caramba MCP Server是一个基于Go语言的MCP服务器实现,旨在为LLM客户端提供资源、工具和Prompt模板等上下文服务。
Cyberon 是一个基于 Flask 的 Web 应用程序,同时也是一个 Model Context Protocol (MCP) 服务器,用于探索和可视化知识本体,并为 LLM 客户端提供上下文服务。
一个基于 Model Context Protocol (MCP) 的简单服务器实现,提供基础的 Prompt 模板和 Tool 工具,用于 LLM 应用的上下文服务。
mcp-kotlin-sdk仓库是基于Kotlin实现的Model Context Protocol (MCP) SDK,它不仅提供了构建MCP客户端的能力,也包含了创建MCP服务器的功能,旨在帮助开发者便捷地构建和部署MCP应用。
Prompt Decorators 提供了一个标准化的框架,用于增强和管理大型语言模型 (LLM) 的 Prompt,包含 MCP 服务器实现,可与 Claude Desktop 等 MCP 客户端集成。
Offeryn是一个Rust实现的Model Context Protocol (MCP) 服务器,专注于通过工具扩展大型语言模型的能力,支持JSON-RPC over Stdio和SSE传输协议。
kotlin-sdk仓库是一个基于 Model Context Protocol (MCP) 的 Kotlin SDK,它提供了构建MCP客户端和服务器端应用的能力,支持资源、工具和Prompt模板的管理,以及多种传输协议。
mcpmock是一个CLI工具,用于模拟MCP服务器,通过YAML文件预设场景响应JSON-RPC请求,方便MCP客户端测试和开发。
CrewAI MCP Server是一个基于Python实现的MCP服务器,它利用Claude API提供AI智能体和任务管理能力,支持通过JSON-RPC协议进行工具调用和会话交互。
WordPress MCP Server 通过 JSON-RPC 接口,为 LLM 提供对 WordPress 网站内容(如文章)的创建、读取和更新能力,实现 AI 与 WordPress 内容管理的集成。
Quarkus MCP Server是一个基于Quarkus框架的扩展,用于简化Model Context Protocol (MCP) 服务器的开发,帮助开发者轻松构建LLM应用的后端服务,实现与外部数据源和工具的无缝集成。
MCPMC是一个MCP服务器,使AI代理能够控制Minecraft机器人,通过JSON-RPC提供对Minecraft世界信息和操作的标准化访问。
MCP Server Starter是一个基于TypeScript的模板,用于快速构建MCP服务器,方便AI智能体与各种工具和数据源集成。