返回首页

"工具注册" 标签

236 个结果

标签搜索结果

网页与API

Strands MCP Calculator Server

基于 Model Context Protocol 的简易计算器 MCP 服务器示例,展示如何定义工具、暴露给客户端调用,以及通过 Streamable HTTP 传输进行通信的服务器实现。

AI与计算

Healthcare ChatBot MCP 服务器实现

基于模型上下文协议(MCP)的后端服务器实现,使用 FastMCP 将 ChatBot 的查询、会话历史和配置信息以工具的形式对 MCP 客户端暴露,并支持通过 MCP 客户端进行跨进程/跨平台的上下文交互。

AI与计算

AI Productivity MCP 统一大脑服务器

基于 Model Context Protocol 的本地 MCP 服务器,向本地 AI 客户端提供 9 个系统工具(如获取Last Session Context、路由推荐、效率快照、优化建议等),并通过标准的 JSON-RPC 形式进行资源、工具与 Prompt 的统一访问与渲染。该仓库实现了一个完整的 MCP 服务器端,包含注册工具、处理请求、会话与推送等核心能力。

AI与计算

Fiji MCP 服务器(ImageJ/Fiji 集成的模型上下文后端)

一个基于 Model Context Protocol (MCP) 的后端实现,用于向大语言模型客户端提供 Fiji / ImageJ 的资源、工具和提示模板等上下文信息,并通过 JSON-RPC 进行通信。核心功能包括托管 Fiji 资源、注册可调用的工具、渲染提示模板,以及会话管理。该实现通过 fastmcp 库暴露一个服务器实例,注册工具并提供运行入口。当前为 Proof of Concept(POC),依赖 ImageJ/Fiji 的 Java/JVM 环境以及对应的 Python 封装,便于在本地桌面环境或开发机上进行功能验证。

AI与计算

Lemma MCP 服务端实现

基于 Lemma 引擎实现的 MCP(Model Context Protocol)服务器,提供对资源、工具与 Prompt 的标准化访问,通过 JSON-RPC 与客户端通讯,支撑 LLM 在后端获取上下文、执行外部功能与渲染提示模板等能力。

AI与计算

Vigil MCP 服务器

基于 Model Context Protocol 的后端服务,按照 MCP 标准提供资源管理、工具注册与执行、以及 Prompt 模板渲染等能力,通过 JSON-RPC 作为传输协议与 Claude Desktop/Code/Cursor 等客户端进行上下文对话与功能调用。该服务器内置会话管理、能力声明,并支持多种传输协议,以为 LLM 应用提供可扩展、安全的上下文服务框架。

AI与计算

MAXSIM MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,提供资源、工具、提示模板等上下文信息,并通过 JSON-RPC(以 STDIO 传输为主)与 Claude Code 客户端进行交互,支持会话管理与能力声明,能够向 LLM 客户端暴露多种工作工具与上下文资源。该仓库中包含完整的服务端实现和对外暴露的 MCP 工具集合。

AI与计算

Mastra MCP Server 框架

基于 Model Context Protocol (MCP) 的后端框架,提供资源托管、工具注册与执行、以及提示模板渲染,并通过多传输通道与客户端进行标准化的 JSON-RPC 通信,支持在 Express、Hono、Fastify、Koa、Hono 等适配器上部署的 MCP 服务。

AI与计算

Neural Kitchen MCP 服务器

基于 Model Context Protocol (MCP) 的独立后端服务,提供资源管理、工具注册与执行,以及提示模板的读取与渲染能力,供大语言模型客户端通过标准化的 JSON-RPC 方式获取上下文信息与外部功能。该实现包含独立的 MCP 服务器、工具注册、HTTP 路由(健康检查与请求处理)以及与向量检索、任务队列等后端组件的整合。

AI与计算

Akashi MCP 服务器

基于 MCP(Model Context Protocol)的后端服务,向大语言模型客户端提供统一的上下文资源、可调用工具、以及可渲染的提示模板,并通过 JSON-RPC 的 MCP 交互完成资源访问、工具执行与对话提示渲染的能力;内置会话管理、能力声明、以及可扩展的传输接口(如 Stdio、SSE、WebSocket),并与 PostgreSQL/TimescaleDB、嵌入向量检索等子系统集成,支持审计与冲突检测等企业特性。

AI与计算

DURA 模型上下文协议服务器实现

基于模型上下文协议(Model Context Protocol,MCP)的后端服务实现,提供资源管理、工具注册与执行、以及提示模板渲染等能力,并通过 JSON-RPC 与客户端进行通信,支持多种传输方式以为大语言模型应用提供可扩展的上下文服务框架。

AI与计算

Agent Zero MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现。该仓库提供资源、工具、提示模板等的托管与管理,并通过 JSON-RPC/多传输协议与 MCP 客户端进行交互,实现对上下文信息、工具执行以及提示渲染的标准化后端服务。

AI与计算

agenr MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,负责通过 JSON-RPC 向 LLM 客户端提供上下文信息与功能,包括托管和管理 Resources(资源)、注册与执行 Tools(工具),以及定义与渲染 Prompt 模板与交互模式。服务器负责会话管理、能力声明,并支持多种传输协议(如 STDIO、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文服务框架。

AI与计算

Sequential Thinking MCP v2 服务器实现

基于 Model Context Protocol (MCP) 的本地 MCP 服务器实现,提供会话管理、内存/思想(memory/thought)存储、分支与决策等资源与工具接口,并通过 JSON-RPC 进行通信,支持会话持久化、内存管理与多种交互场景,供 LLM 客户端调用外部功能与获取上下文数据。

AI与计算

Plexus MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,作为 MCP 客户端的后端服务,提供资源、工具与提示模板的注册、管理与渲染,并通过 JSON-RPC/HTTP 与客户端进行通信,支持会话管理、能力声明以及多传输协议的 MCP 代理能力。

AI与计算

Thinkt MCP 服务器

基于 Model Context Protocol(MCP)的后端服务,提供标准化的资源、工具、Prompts 的托管与管理,并通过 JSON-RPC 方式与 LLM 客户端通信。支持多源数据接入、工具注册/执行、Prompt 模板渲染,以及对话上下文的统一上下文服务,方便 LLMs 调用外部功能与获取上下文信息。

AI与计算

ANT MCP 服务器实现(a-nice-terminal)

基于 Model Context Protocol 的 MCP 服务器实现,提供对 ANT 会话、资源与工具的标准化访问,通过 JSON-RPC/StdIO-Socket 等方式与 MCP 客户端通信,支持工具注册、读取会话、发送消息、终端输入输出等核心功能,便于 AI 代理对 ANT 的上下文与能力进行调用与协作。

AI与计算

AllSource MCP 服务器(Elixir 实现)

基于 Model Context Protocol (MCP) 的服务器端实现,负责向 LLM 客户端提供资源托管、工具注册与执行、以及 Prompts 定义与渲染的能力,并通过 JSON-RPC 与客户端通信;支持多传输协议,具备会话管理与能力声明等扩展特性,适合作为 LLM 场景中的上下文服务后端。

网页与API

Open Web Unlocker MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供统一的资源、工具和提示模板的管理与上下文服务,面向 LLM 客户端通过 JSON-RPC 进行交互。

网页与API

hono-mcp-server

基于 Hono 的 MCP 服务器实现,提供统一的资源/工具管理、提示模板渲染与 JSON-RPC 通信能力,允许将 Hono API 端点暴露为 MCP 工具供 LLM 客户端调用。

AI与计算

CLEO MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,向 LLM 客户端以标准化方式提供上下文、资源、工具和提示模板等能力,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多传输协议接入,实现对资源、工具与提示的托管与渲染。

AI与计算

Minion Toolkit MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向 Claude Code 客户端提供资源、工具与提示模板等上下文服务,支持资源管理、工具注册与执行、提示渲染,以及面向 LLM 的任务编排、成本估算、集成报告等功能,帮助实现可扩展、安全的上下文服务框架。

AI与计算

SPAWN MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,作为 LLM 客户端的后端上下文服务,提供资源/内存、工具、日志与交互能力,并通过 JSON-RPC 形式与客户端通信,支持多传输协议(如 Streamable HTTP)。

AI与计算

TuitBot MCP Server

基于 Model Context Protocol (MCP) 的后端服务,提供资源管理、工具注册/执行、Prompts 定义与渲染,并通过 JSON-RPC 向 MCP 客户端提供标准化的上下文和功能接口。

AI与计算

workspace-qdrant-mcp

基于 Model Context Protocol (MCP) 的后端服务器实现,为 LLM 客户端提供标准化的上下文服务:托管资源、注册与执行工具、以及定义渲染 Prompt 的能力;通过 JSON-RPC 与客户端通信,支持会话管理、能力声明和多传输协议(如 Stdio、SSE、WebSocket)等扩展能力。

开发者工具

Smithery MCP 服务器运行环境

基于 Model Context Protocol 的 MCP 服务器实现与运行框架,提供资源托管、工具注册与执行、以及 Prompt 模板渲染等核心能力,并支持多种传输协议(如 StdIO、HTTP 等)以便为大语言模型客户端提供可扩展的上下文服务。

AI与计算

superbot-mcp-server

基于 Model Context Protocol(MCP)的后端服务实现示例,提供一个可运行的 MCP 服务器,用于暴露工具并通过 JSON-RPC 与 MCP 客户端通信,底层以 Claude Code 的快速 MCP 服务端为例展开实现。该服务器可与多种前端客户端协同工作,支持工具注册、执行与提示渲染等 MCP 相关能力。

AI与计算

AgentSpec MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具、Prompts 等上下文信息的托管与渲染,支持通过 JSON-RPC 进行请求/响应,且可通过 stdio 和 HTTP 两种传输方式与 LLM 客户端对接。

AI与计算

Gleann MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行、以及提示模板等能力,并通过 JSON-RPC 与客户端通信,内置以 stdin/stdout 形式的传输支持,便于在本地编辑器与 LLM 客户端中集成使用。

AI与计算

Structured Memory Engine MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,向 LLM 客户端提供资源、工具和提示模板等统一的上下文服务,支持 JSON-RPC 通信、会话管理与能力声明,并可通过多传输协议(如 Stdio/ SSE/ WebSocket)与客户端进行安全、可扩展的交互。该仓库实现了完整的 MCP 服务器端逻辑,注册工具、管理资源、定义并渲染提示模板,面向本地离线环境的上下文服务应用。

AI与计算

Servant 模型上下文服务端

基于 Model Context Protocol (MCP) 的后端实现,使用 Vert.x 架构通过 JSON-RPC 与客户端通信,提供工具注册、会话管理与能力声明等核心 MCP 功能,支持将生成的上下文和能力暴露给 LLM 客户端以实现高效的上下文服务。

AI与计算

agent-bom

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)、工具(Tools)、以及Prompt模板的注册、管理与渲染,支持 JSON-RPC 形式的客户端交互,并实现会话管理、能力声明与多传输协议(如 STDIO、SSE、WebSocket)下的 MCP 服务,以向大语言模型(LLM)客户端提供标准化的上下文和外部功能能力。

AI与计算

srchd MCP 服务器实现与管理平台

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及可渲染的 Prompt 模板等能力,设计用于通过 JSON-RPC 与 LLM 客户端进行标准化的上下文服务、工具调用与提示渲染等交互。

AI与计算

DivineOS MCP Server

DivineOS 的 MCP 服务器实现,提供资源、工具、提示模板等通过 JSON-RPC 的方式对外服务,支持多传输协议(stdio、HTTP),并内置完整的工具集供 LLM 客户端调用。

AI与计算

openstudio-mcp

基于 Model Context Protocol (MCP) 的 OpenStudio 后端服务器,向大型语言模型 (LLM) 客户端提供标准化的上下文信息与功能。核心职责包括托管和管理 OpenStudio 资源(如模型、设计日、结果等)、注册和执行工具(Tools,供 LLM 调用外部功能)、定义与渲染 Prompt 模板,并通过 JSON-RPC 与客户端通信实现会话管理、能力声明与多传输协议支持(如标准输入输出、服务器发送事件、WebSocket 等)。通过一个内存中的模型管理器维护模型状态,运行结果与跑步(Runs)输出存放在 /runs,提供安全、可扩展的后端服务框架。该实现面向与 OpenStudio/EnergyPlus 的集成与自动化工作流场景,方便将 LLM 的推理过程与能源模型操作结合起来。

AI与计算

AFS MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 Resources、Tools 与 Prompts 的标准化管理与访问,并通过 JSON-RPC 与客户端进行通信,支持多传输方式以提供安全、可扩展的上下文服务。

网页与API

Better Email MCP

基于 Model Context Protocol (MCP) 的后端服务器,实现资源托管、工具注册与执行,以及提示文档渲染,为 AI 代理提供统一的邮件上下文与操作能力,并通过 JSON-RPC 与客户端通信。

AI与计算

Rainy Updates 本地模型上下文服务器

基于 Model Context Protocol 的本地后端服务器,向大语言模型客户端提供统一的资源管理、工具注册与执行、以及可定制的提示模板渲染,全部通过 JSON-RPC 与客户端通信,支持多种传输通道以实现安全、可扩展的上下文服务。

AI与计算

HowCanI MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,为 LLM 客户端提供标准化的上下文与功能服务,核心包括资源(Items/Tags/Users)的托管、工具(如搜索、获取、更新、创建等)注册与执行,以及通过 MCP JSON-RPC 与客户端通信的能力,支持 HTTP 传输并具备会话管理与能力声明。

AI与计算

Context Vault MCP 服务器

基于 Model Context Protocol 的后端服务实现,提供资源管理、工具注册与调用、以及提示模板渲染等核心功能,通过 JSON-RPC 与大语言模型客户端进行标准化上下文服务交互,支持本地文件存储+向量检索等能力。

AI与计算

dartwork-mpl 模型上下文协议服务端

基于模型上下文协议(Model Context Protocol,MCP)的后端服务器,向大模型客户端以标准化方式提供上下文信息与功能。核心能力包括托管与管理资源、注册并执行工具、定义与渲染提示模板;通过 JSON-RPC 实现与客户端的通信,支持会话管理与多传输通道(如 StdIO、SSE、WebSocket),并提供安全、可扩展的上下文服务。

网页与API

Browser Bridge MCP Server

基于 Model Context Protocol (MCP) 的服务器实现,作为后端服务向 LLM 客户端提供标准化的上下文信息与功能。核心职责包括托管与管理 资源(Resource)、注册与执行 工具(Tools)、定义与渲染 Prompt 模板(Prompts),并通过 MCP 规范的协议与客户端进行 JSON-RPC 风格的请求/响应交互,支持会话管理、能力声明,以及对接 Core/扩展组件的桥接能力。

AI与计算

ArchGuard MCP 服务端实现

基于 Model Context Protocol 的 MCP 服务器实现,作为后端为大语言模型客户端提供标准化的上下文信息、资源数据、工具执行能力以及自定义提示模板等功能,支持 JSON-RPC 通信、会话管理和多种传输协议。

网页与API

Pharos MCP 服务器

基于 Model Context Protocol 的后端 MCP 服务器实现,向大型语言模型客户端提供 Pharos 数据查询、工具调用和数据分段存储等能力,并通过 JSON-RPC/流式传输(如 SSE、HTTP 流等)进行通信与协作。

AI与计算

SlimClaw MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,作为 SlimClaw 的内部 MCP 服务端,向 LLM 客户端以标准化的 JSON-RPC 形式提供资源管理、工具注册与调用、以及提示模板渲染等能力;通过标准的传输(如 stdin/stdout)与容器化执行环境进行交互,支撑多组会话、任务调度与分组上下文管理等功能。

AI与计算

Synapse MCP 服务器实现

基于模型上下文协议(MCP)的服务器端实现,负责托管和管理资源与工具、注册并执行工具、以及定义与渲染与MCP客户端交互的工具清单与查询能力,支持向下游MCP实例聚合、工具执行,以及简单的流式/JSON-RPC风格接口。

开发者工具

Agent Reach MCP Server

基于模型上下文协议(MCP)的服务端实现,提供一个可运行的服务器用来暴露 Agent Reach 的状态与功能给 MCP 客户端,通过 JSON-RPC 方式进行调用与响应。

AI与计算

EGOS MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,作为后端上下文服务中枢,托管资源、注册并执行工具、渲染可自定义的 Prompt 模板,并通过 JSON-RPC 提供统一的上下文服务接口给 LLM 客户端。

AI与计算

Hydra MCP 服务器

基于 Hydra 的 MCP 服务器实现,提供资源、工具与 Prompt 的标准化上下文服务,并通过 JSON-RPC 与客户端通信以支持多轮对话与上下文管理。

AI与计算

Liza MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,向 LLM 客户端以标准化方式提供资源数据、可注册与调用的工具,以及可渲染的 Prompt 模板;通过 JSON-RPC 进行通信,支持会话管理、能力声明与多传输协议(如 StdIO、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文服务框架。

AI与计算

Sardis MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,向大型语言模型客户端提供标准化的上下文资源、工具执行和可渲染的提示模板,采用 JSON-RPC 的通信方式,并支持多传输协议接入与会话管理,旨在为 LLM 应用提供安全、可扩展的上下文服务框架。

网页与API

Homelab MCP 服务器集合

基于 Model Context Protocol (MCP) 的多组件后端服务集合,向 LLM 客户端以标准化的 JSON-RPC 方式暴露资源、工具与 Prompts 等上下文信息与功能,支持统一或分布式部署,用于对家庭/本地网络环境的上下文管理、监控与自动化集成。

AI与计算

Daiso MCP Server

基于 Model Context Protocol(MCP)的后端服务器,运行在 Cloudflare Workers 上,提供资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染,面向 LLM 客户端通过 JSON-RPC 进行上下文和功能调用。

AI与计算

AI-Investment-Advisor MCP Server

基于 Model Context Protocol(MCP)的后端服务器,向 LLM 客户端提供资源、工具与 Prompt 模板等统一上下文服务,并通过 JSON-RPC 与客户端进行请求/响应交互,附带会话管理与能力声明,支持多传输协议以实现安全、可扩展的上下文服务框架。

网页与API

Pancake POS MCP 服务器

基于模型上下文协议(MCP)的后端服务,提供 Pancake POS 的资源访问、工具执行与对话相关能力,通过 JSON-RPC 与客户端通信,支持本地 stdio 与 HTTP 两种传输模式。

AI与计算

onUI MCP 服务器端实现

基于 Model Context Protocol (MCP) 的本地 MCP 服务器实现,提供资源、工具、提示模板等上下文相关能力,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多种传输方式,便于在本地搭建可扩展的上下文服务。

AI与计算

Koryphaios MCP后端服务器

基于 Model Context Protocol(MCP)的后端服务器,向大型语言模型客户端提供标准化的资源、工具与提示模板,并通过JSON-RPC进行交互;具备会话管理、能力声明、多传输协议支持(如 StdIO、SSE、WebSocket)以及安全可扩展的上下文服务框架。

网页与API

Crowd IT Unified MCP 服务器

基于 Model Context Protocol 的后端 MCP 服务器,提供资源管理、工具注册与执行以及 Prompt 模板渲染的统一上下文服务,并通过 JSON-RPC 与 LLM 客户端通信,支持在多种传输协议下工作(如 STDIO、SSE、WebSocket)。

AI与计算

Stigmer MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,用于向 LLM 客户端以标准化方式提供资源管理、工具注册与执行以及 Prompt 模板渲染等上下文服务,支持通过 gRPC/JSON-RPC 与前端/IDE 等工具进行高效、安全的交互。项目包含用于生成与集成 MCP 输入输出的代码、以及面向资源类型的 API 框架与网关组件,定位为后端服务端实现。

AI与计算

Instar MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)、工具(Tools)注册与执行,以及 Prompts 的定义与渲染,向 LLM 客户端以标准化方式暴露上下文与功能,并通过 JSON-RPC/HTTP 等协议进行通信,支持会话管理与多种传输途径,致力于为 LLM 应用提供可扩展的上下文服务框架。

开发者工具

Iconx MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,用于向大语言模型(LLM)客户端提供图标资源、工具与可自定义的 Prompt 模板等上下文服务。该仓库中的 iconx 包提供一个可运行的 MCP 服务器实现,通过标准输入输出(stdio)传输,与客户端进行 JSON-RPC 通信,注册并执行工具(如搜索图标、生成图标组件等),并支持通过配置管理图标资源与输出。

开发者工具

OpenCode MCP Server

基于模型上下文协议(Model Context Protocol,MCP)的后端服务器,将 OpenCode 作为工具/子代理,通过 MCP 提供资源访问、工具调用和提示模板渲染等上下文服务,支持 stdio 和 HTTP 传输。

AI与计算

aidaemon MCP 服务器

基于 Model Context Protocol(MCP)的后端实现,提供资源(Resources)托管、工具(Tools)注册/执行、以及 Prompt 模板的定义与渲染,通过 JSON-RPC 与 LLM 客户端进行标准化上下文服务交互,并支持会话管理与跨传输协议的通信能力。

网页与API

LinkedIn MCP 服务器

一个基于 Model Context Protocol 的 MCP 服务器实现,提供 LinkedIn 数据抓取相关的资源、工具和提示模板,并通过 MCP JSON-RPC 与客户端通信,支持会话管理、工具注册与自定义提示渲染等能力。

AI与计算

Multi-CLI MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供跨多 AI 客户端的工具、提示与潜在资源上下文服务,支持 JSON-RPC 请求/响应、会话管理以及标准传输(如 STDIO)。

AI与计算

SubNetree MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供资源管理、工具注册与执行,以及基于 Prompts 的渲染能力,通过 JSON-RPC 与 LLM 客户端进行通信;实现了一个用于 MCP 的服务器端,以便 LLM 客户端能读取资源、调用工具、以及渲染/获取提示模板等上下文信息。

网页与API

pyplots MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务,为大语言模型客户端提供绘图规格、实现代码、库信息的上下文与工具访问能力,并通过 JSON-RPC 与客户端进行通信。该服务器负责资源管理、工具注册与执行、Prompt 模板的定义与渲染,以及会话管理与能力声明,支持多种传输协议以适配不同的集成场景。

AI与计算

Telegram-Bridge-MCP

基于 Model Context Protocol 的后端服务器,实现通过 JSON-RPC 向 LLM 客户端提供上下文与功能:托管资源、注册工具、定义与渲染提示模板,并通过多传输协议(如_stdio、SSE、WebSocket)与 Telegram 机器人实现双向通信与上下文服务。

网页与API

Software Factory MCP Server

基于 Model Context Protocol(MCP)的后端服务器实现,面向 LLM 客户端提供标准化的上下文服务:托管资源、注册与执行工具、定义与渲染 prompts,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 SSE、WebSocket、StdIO)以实现安全、可扩展的上下文服务框架。仓库中已有大量 MCP 相关模块和对接实现,能够与客户端协同提供资源、工具与提示等能力。对接示例包括通过 llm_client 与 MCP 平台服务器进行交互以及对 MCP 服务的自检与自动重启等能力。

网页与API

Personal KB MCP Server

基于 Model Context Protocol (MCP) 构建的后端服务器,向 LLM 客户端标准化暴露资源、工具与 Prompt 模板,并通过 JSON-RPC 与客户端交互,实现知识管理、工具注册与自定义对话模板的渲染与执行。

AI与计算

Haira MCP Server

Haira 的 MCP 服务器实现,基于 Model Context Protocol(MCP)提供资源与工具的管理、以及将工作流暴露为外部工具的能力,服务器通过 JSON-RPC 与客户端通信,支持多种传输方式(如标准输入输出stdio 和 SSE),并与 Haira 内部运行时紧密集成以实现对上下文、工具执行和提示模板的标准化服务。

AI与计算

agentic-mcp

基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供资源、工具、提示模板等标准化上下文服务,支持多提供商协作、会话管理和多传输协议通信。

AI与计算

Claude Terminal MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,嵌入在 Claude Terminal 桌面应用中,提供资源、工具、提示模板等 MCP 组件给 LLM 客户端,通过 JSON-RPC 进行通信,并支持会话管理、能力声明与插件化注册表功能。

AI与计算

Planning Game XP MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对资源、工具与提示模板的标准化管理与访问,通过 JSON-RPC 与 LLM 客户端进行通信,支持会话管理、能力声明,以及与 Firebase 数据库的交互。该仓库包含可运行的 MCP 服务端代码及相关工具与测试,适用于将 LLM 客户端接入 Planning Game XP 的上下文与功能服务。

AI与计算

SPAWN-MCP 服务器

基于 Model Context Protocol (MCP) 的服务器端实现,提供资源、工具、提示等核心上下文能力给大模型/LLM 客户端,通过 JSON-RPC 形式对外提供 MCP 功能与会话管理,并可与多种传输模式协作。

AI与计算

LEMON MCP 服务器桥接

LEMON 是一个面向临床决策工作流的全栈后端,仓库中包含一个 MCP 服务器桥接实现。该桥接通过 JSON-RPC 提供模型上下文服务,核心职责包括托管资源、注册与执行工具、定义与渲染提示模板,并支持多种传输协议(如标准 I/O、Server-Sent Events、WebSocket)。通过 MCP 桥接,客户端可以读取资源、调用工具、获取并渲染提示模板等,以实现对 LLM 的统一上下文服务与扩展能力。仓库提供 MCP 服务器入口脚本 run_mcp.py,以及 Bridge 实现模块,形成一个可运行的服务器端 MCP 实现。

AI与计算

Atlas MCP 服务器实现

基于 Model Context Protocol (MCP) 的 Atlas 后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt/模板的渲染等 MCP 核心能力,通过 JSON-RPC 与客户端通信,支持 StdIO 与 SSE 等传输方式,适配多种 LLM 客户端的上下文服务需求。

AI与计算

CCC MCP 服务端实现

基于 Model Context Protocol(MCP)的后端服务实现,集成到 CCC(Claude Code Launcher)中,用于托管资源、注册与执行工具,以及定义与渲染提示模板。通过内联(Inline)MCP 与 Claude Code 的虚拟文件系统(VFS)进行 JSON-RPC 通信,支持多层配置体系(全局/预设/项目)以及插件扩展,目标是为大型语言模型客户端提供标准化的上下文服务与外部功能调用能力。

网页与API

XPouch MCP 服务器

XPouch AI 的原生 MCP(Model Context Protocol)服务器实现,提供资源与工具托管、Prompt 模板渲染,以及通过 SSE/HTTP 等传输协议向 LLM 客户端提供标准化上下文服务;内置 HITL、工具缓存、Terraform 式扩展能力,能够注册可扩展的外部工具服务并与 LangGraph 协同执行。

AI与计算

DivineOS MCP Server

DivineOS MCP Server 基于 MCP 协议实现的后端服务,利用 MCP SDK 将资源、工具和提示等能力以 JSON-RPC 形式暴露给 MCP 客户端,支持标准输入输出和 HTTP 传输,提供完整的伺服器端实现与工具集合。

网页与API

OSS Autopilot MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,向 LLM 客户端以标准化方式暴露资源、注册工具并提供提示模板,支持 stdio 与 HTTP 流式传输,便于在本地搭建可扩展的上下文服务。

AI与计算

Tree-sitter Analyzer MCP 服务端

基于 MCP(Model Context Protocol)的后端服务器实现,提供资源管理、工具注册与执行、以及提示模板的统一接口,并通过 JSON-RPC 与客户端通信,支持多种传输协议(如 Stdio、SSE、WebSocket),用于向大模型/LLM 客户端提供可扩展的上下文、数据访问以及外部功能调用能力。该仓库包含完整的服务端实现与大量 MCP 相关工具和测试用例,旨在作为企业级代码分析与 AI 辅助工作的后端上下文服务框架。

AI与计算

GitHub Tamagotchi MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,向 AI 助手提供宠物资源、工具注册/执行等能力,采用 JSON-RPC 形式进行通信。内置 FastAPI 应用,通过 FastMCP 暴露工具接口,允许 AI 客户端查询宠物状态、注册/喂养宠物、获取历史等,并通过 /mcp/mcp 路径提供 MCP 服务端入口。

AI与计算

Cortex MCP 服务器

基于 Cortex 的 Model Context Protocol (MCP) 服务器实现,向 LLM 客户端提供标准化的上下文、资源与工具访问,并支持多传输协议(标准输出/HTTP+SSE),实现资源、工具、提示模板等 MCP 核心能力。

AI与计算

DuckDB MCP Extension

基于模型上下文协议(MCP)的 DuckDB 后端实现与扩展,提供资源、工具、提示模板的托管、注册与查询能力,并通过多种传输协议(stdio、HTTP、WebMCP、内存等)与 LLM 客户端进行 JSON-RPC 交互,涵盖服务器端会话、权限控制与安全模型的完整实现。

AI与计算

HPD-MCP-Server-Framework

基于 Model Context Protocol (MCP) 的后端服务器实现,向大语言模型客户端提供资源、工具与可渲染的提示模板,并通过 JSON-RPC 进行通信,支持通过 MCP.json 配置或代码属性进行注册与启动,具备会话管理、能力声明与多传输协议(如 Stdio、SSE、WebSocket)的扩展能力。

AI与计算

Remembrance Oracle Toolkit MCP Server

基于 Model Context Protocol(MCP) 的后端服务器实现,提供以 JSON-RPC 2.0 方式向 AI 客户端暴露资源管理、工具注册/执行以及可渲染的 Prompt 模板等能力,并支持多传输协议(如 STDIO、WebSocket、SSE),实现会话管理与能力声明,用于为 LLM 应用提供结构化的上下文服务与外部功能入口。

开发者工具

Bitbucket-CLI MCP 服务器

基于 Model Context Protocol 的 MCP 服务器端实现,提供 Bitbucket CLI 的资源、工具注册与执行能力,供 LLM/AI 客户端通过 JSON-RPC 调用并获取上下文信息和功能。

AI与计算

PulseMCP MCP Servers

基于 Model Context Protocol (MCP) 的后端服务器模板与实现集合,提供资源管理、工具注册与执行、提示模板渲染,以及通过 JSON-RPC 与 MCP 客户端进行通信的完整服务器框架与示例。包含可运行的服务器入口、资源与工具实现模板,以及对 Google 日历、Gmail 等服务的实验性扩展。

AI与计算

pai MCP 服务端实现

基于 Model Context Protocol 的 MCP 服务端实现,提供对资源、工具和提示模板的标准化管理与访问,支持与大语言模型客户端通过 JSON-RPC 进行交互,并定义不同传输方式(如 StdIo、SSE 等)以供 LLM 应用接入。仓库中包含完整的 MCP 服务入口、19 个工具实现及集成示例,具备可运行的服务器端代码。<br>核心功能包括:托管资源与知识、注册并执行工具、渲染 Prompt 模板、以及会话与能力声明管理等。

AI与计算

COEIRO Operator MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册/执行、以及提示模板等功能,通过 JSON-RPC 与客户端交互,支持标准传输(如 Stdio)并可扩展为多种传输方式,适用于向 LLM 客户端提供上下文和外部功能接入能力。

AI与计算

AigoHotel MCP 服务器

AigoHotel 基于 Model Context Protocol (MCP) 的后端服务,提供酒店搜索、酒店详情与标签等工具,通过 JSON-RPC 与客户端交互,供 AI 助手获取上下文信息与功能。

AI与计算

Open-Hivemind MCP Server

基于 Model Context Protocol(MCP)的后端服务器,聚合资源、工具与提示模板,提供标准化的 JSON-RPC 接口与会话管理,支持多传输协议以向大语言模型客户端提供上下文与功能能力。

开发者工具

Cass Memory MCP 服务器

基于 Model Context Protocol (MCP) 的本地后端服务,提供资源管理、工具注册与执行,以及提示模板渲染,通过 JSON-RPC 与 LLM 客户端进行交互,并支持本地化部署与多种传输方式。

网页与API

Advanced Memory MCP

面向 LLM 客户端的高性能MCP服务器,实现资源管理、工具注册与执行、以及Prompt渲染,通过JSON-RPC进行通信,支持多传输协议和可扩展生态。该仓库不仅提供MCP服务器端实现,还包含与前端Web应用的桥接组件和多种工具集合。

AI与计算

Agent Memory MCP 服务端

基于 MCP(Model Context Protocol)的服务器端实现,提供内存资源、工具、提示模板的注册与管理,并通过标准化的 JSON-RPC 交互向多代理 AI 客户端提供上下文与功能服务。

AI与计算

CrestApps.OrchardCore MCP Server

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源管理、工具注册与执行、以及 Prompt 模板的定义和渲染等功能,通过 JSON-RPC 与 LLM 客户端进行上下文信息和能力的交互,同时支持多种传输协议以实现安全、可扩展的上下文服务框架。

AI与计算

FrankenTerm MCP 服务器

基于 ft 的 MCP 后端实现,通过标准的 JSON-RPC 向 LLM 客户端提供 Resources、Tools、Prompts 等上下文信息与功能,以及会话与能力管理,支持多传输协议(如 StdIO/SSE/WebSocket),以实现面向大语言模型的上下文服务后端。

AI与计算

Vectrix MCP Server

MCP 协议实现的后端服务器,基于 Vectrix 提供时间序列预测相关的资源、工具与 Prompt 模板,并通过 JSON-RPC 与 AI 客户端进行通信,支持多传输协议与会话管理。

AI与计算

Autonomous MCP 后端服务器

基于 Model Context Protocol(MCP)的后端服务器实现,面向 LLM 客户端提供标准化的上下文资源、工具注册与执行能力,以及可定制的 Prompt 模板渲染;通过 JSON-RPC 进行通信,包含会话管理、能力声明,且支持多种传输协议(如 STDIO、SSE、WebSocket),为代码基地级别的上下文服务提供端到端的后端能力。

AI与计算

CodeGB MCP 服务器

基于 Model Context Protocol(MCP)的本地化后端服务,面向 LLM 客户端提供标准化的上下文服务。核心功能包括托管和管理资源(Knowledge Graph)、注册与执行工具(Tools)、以及定义/渲染 Prompts 的能力,服务器通过 JSON-RPC 与客户端通信,支持资源持久化、工具执行、以及基于图数据库的查询与分析。实现包含完整的服务端工具集合、MCP 请求/响应处理,以及与本地存储(Kuzu/KG 图)之间的交互逻辑,适用于本地开发环境中的 LLM 辅助工作流。}

AI与计算

Nevermined Payments MCP 服务器

基于 Nevermined Payments 的 MCP 服务器实现,为大型语言模型客户端提供资源、工具、提示等上下文能力的标准化服务。通过 JSON-RPC 与客户端通信,处理请求/响应,包含会话管理、能力声明,并支持多种传输方式与安全认证机制,便于搭建安全、可扩展的上下文服务平台。

AI与计算

Forge MCP 服务器(Forge Orchestrator MCP 服务)

基于 Model Context Protocol(MCP)的服务器实现,作为 Forge Orchestrator 的后端,向大语言模型客户提供资源访问、工具注册/执行与 Prompt 渲染等能力;通过 JSON-RPC 在标准输入输出(stdio)上与客户端通信,包含会话管理、能力声明,并支持多种传输方式的扩展。该仓库提供完整的 MCP 服务端实现、协议定义及与工具适配器的集成,具备可运行的服务器代码和集成测试。

AI与计算

Hebo MCP 服务端实现

基于 MCP(Model Context Protocol)标准的服务器端实现,能够注册工具、通过流式传输向 LLM 客户端提供工具执行能力与上下文,并通过 JSON-RPC 进行交互,适用于分布式、AI 驱动的后端场景。

AI与计算

Brain Dump MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具、提示模板等统一注册、执行与渲染能力,通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多传输协议扩展,作为 LLM 客户端的上下文服务与功能入口。

AI与计算

t402 MCP 服务器

基于 MCP 的后端服务器,用标准化的 JSON-RPC 形式向 LLM 客户端暴露资源、工具和提示模板的注册、执行与渲染能力,并通过 交易所需的支付流程(402 协议)完成资源访问与工具调用的权限控制。

AI与计算

Paseo MCP服务器实现

基于 Model Context Protocol(MCP)的后端服务实现,作为LMM客户端的上下文与能力提供者:承载并管理资源、注册与执行工具、定义与渲染 Prompt 模板;通过 JSON-RPC 在多种传输通道(如 WebSocket/Stdio/SSE 等)上与客户端通信,实现会话管理、能力声明与安全扩展的上下文服务框架。

AI与计算

GuardKit MCP Server (Python 模板实现)

基于模型上下文协议(MCP)的后端服务器模板,提供资源托管、工具注册与执行、以及 Prompt 模板渲染能力;通过 JSON-RPC 与客户端通信,支持多传输模式(如 StdIO、SSE、WebSocket),适用于为大语言模型(LLM)提供上下文数据与外部功能访问。

网页与API

Cubis Foundry MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管、工具注册与执行、以及提示模板渲染,支持多传输协议与多会话的上下文服务,供 LLM 客户端通过 JSON-RPC 调用获取上下文与能力。

AI与计算

MetriLLM MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行,以及提示模板渲染能力,通过 JSON-RPC 与 LLM 客户端进行交互,支持多种传输方式(如 StdIO/SSE/WebSocket)以在本地模型对话中提供统一的上下文服务。

网页与API

SupaCloud MCP Server

基于模型上下文协议(MCP)的后端服务实现,提供资源管理、工具注册/执行、Prompt 模板渲染等功能,通过 JSON-RPC 与客户端通信,支持多传输协议(如 Stdio、SSE、WebSocket)以及会话管理与能力声明,用于为大模型/代理提供可扩展的上下文与外部操作能力。

AI与计算

BC Telemetry Buddy MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供资源与工具管理、Prompt 注册,以及通过 JSON-RPC 进行与 LLM 客户端的安全对话,支持 stdio 与 HTTP 两种传输模式,适配 Copilot 等对 MCP 的场景需求。

AI与计算

Cesium-MCP 服务器集合(MCP 后端实现)

基于 Model Context Protocol (MCP) 的后端实现集合,提供通过标准化的 JSON-命令交互向 LLM 客户端提供地理信息场景的上下文、资源与工具能力。仓库内包含 Camera、Entity、Animation 等 MCP 服务器,以及一个通用的共享传输层,支持多种传输协议(如 StdIO、SSE、WebSocket),实现了资源管理、工具注册、以及与 Cesium 场景的交互能力,满足 MCP 服务器的核心职责与扩展性需求。

AI与计算

Helios Studio MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,面向大语言模型客户端提供标准化的上下文服务。核心职责包括托管与管理资源、注册和执行工具、定义与渲染 Prompt 模板,并通过 JSON-RPC 与客户端进行通信。具备资源/工具/提示的托管、会话管理、能力声明,以及对多传输协议的支持(如 Stdio、SSE、WebSocket)等能力。

AI与计算

AgentOS MCP Server Bridge

基于模型上下文协议(MCP)的后端服务器实现,能够将外部 MCP 服务器的工具暴露为技能并通过 JSON-RPC/WebSocket 等协议与客户端交互,支持注册、执行工具、资源管理与提示模板等能力的集中化管理与路由。

AI与计算

Routa MCP Server

基于 Model Context Protocol (MCP) 的服务器端实现,Routa 提供完整的 MCP 服务端能力,通过 JSON-RPC/Federated 流式通知向 LLM 客户端暴露资源、工具与提示模板,并支持多工作流的代理协同与会话管理。该仓库不仅包含 MCP 服务端核心逻辑,还实现了与 ACP 生态的深度集成与客户端路由接口。

AI与计算

Codex Orchestrator MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管与数据访问、工具注册与执行、以及提示模板渲染等 MCP 核心能力,并通过 JSON-RPC 与 LLM 客户端进行通信;包含委派服务器等 MCP 服务入口,支持基于 stdio 的服务以及可扩展的传输协议。该仓库实现了 MCP 服务器端逻辑与启动集成,能够为 LLM 客户端提供上下文服务、工具执行能力以及可渲染的 Prompt 模板。

AI与计算

PocketPaw MCP 服务端实现

基于模型上下文协议(MCP)的后端服务,提供资源托管、工具注册与执行、Prompt 模板渲染,并通过 JSON-RPC 与客户端进行标准化交互;支持多传输协议、会话管理与能力声明,适配多种 LLM 客户端场景。

开发者工具

MCP DevTools 服务端

基于 MCP 的高性能后端服务器,提供资源、工具、以及提示模板的统一上下文服务,通过 JSON-RPC 与客户端通信,支持 STDIO、SSE、HTTP 等传输模式。

网页与API

NagaAgent MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,负责注册与发现 MCP 工具、并行调度执行、资源与记忆/知识图谱相关能力,并通过 JSON-RPC/HTTP 形式对外提供统一的 MCP 服务入口,支持多种传输模式与会话管理。

网页与API

HttpCat MCP Server

基于模型上下文协议(MCP)的后端服务器实现,提供资源与工具的注册、SSE传输的MCP服务端,以及多种认证方式(JWT、AK/SK、Open API签名)。通过 MCP 客户端(如 Claude、Cursor、CodeBuddy 等)以统一的JSON-RPC风格远程访问文件管理、统计与系统信息等能力,支持扩展的资源与工具。

网页与API

Thoth MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,负责托管资源、注册与执行工具、定义并渲染可定制的 Prompt 模板,并通过 JSON-RPC 与 LLM 客户端进行标准化的上下文服务交互,支持多种传输协议以提供安全、可扩展的后端能力。

AI与计算

Quorum MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现;将 Quorum 的多AI协同推理能力以标准化的 JSON-RPC 服务形式暴露给 MCP 客户端,支持资源/工具/提示模板的管理与渲染,并通过标准化接口与客户端进行通信。

AI与计算

ABI MCP 服务器框架

基于 Model Context Protocol(MCP)的后端服务器实现,向大型语言模型客户端提供统一的资源管理、工具注册与调用,以及可定制的 Prompt 渲染能力;通过 JSON-RPC 2.0 进行通信,支持多种传输协议(如 stdio、SSE、WebSocket),以实现安全、可扩展的上下文服务。

AI与计算

Codes MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,向 LLM 客户端提供资源管理、工具注册与执行、以及 Prompt 模板渲染等上下文服务,并通过 JSON-RPC 与客户端通信,支持 Claude Code 的多主体协作与扩展能力。

AI与计算

Eng Platform MCP 服务器集成

基于 Model Context Protocol 的后端服务器集合,提供资源、工具和提示模板的标准化上下文服务;通过 JSON-RPC 与 LLM 客户端通信,支持多传输模式(SSE、stdio、HTTP),并包含多种领域的 MCP 服务实现(资源管理、分析、报告撰写、团队分析等)。

AI与计算

Fractal MCP 服务端

基于 Model Context Protocol (MCP) 的多项目后端服务器,提供标准化的资源、工具、提示模板等上下文服务,并通过 JSON-RPC 与 Claude 等 LLM 客户端进行交互。

AI与计算

OASTools MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,将资源、工具与提示模板以标准化的 MCP 服务器形式提供给 LLM 客户端,通过 JSON-RPC 进行交互,支持多种传输通道(如 STDIO、SSE、WebSocket),实现会话管理、能力宣告与可扩展上下文服务。

AI与计算

Msty Admin MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器,实现资源、工具、提示模板等上下文服务,并通过 JSON-RPC 与 Claude Desktop 等客户端交互,提供可扩展的上下文管理能力。

AI与计算

MCP-A2A 分布式服务器框架

基于 Model Context Protocol (MCP) 的后端服务器框架,提供 A2A 端点、工具注册、跨服务器协作与 JSON-RPC 通信,能够向 LLM 客户端以标准化方式暴露工具集合、实现会话与上下文管理。

开发者工具

Hack MCP 服务器端

基于 Model Context Protocol (MCP) 的后端服务器实现,向大型语言模型客户端以标准化方式提供上下文资源、可调用工具、以及可定制的提示模板。服务器通过 JSON-RPC 与客户端通信,支持会话管理与多种传输协议(如 STDIO、SSE、WebSocket),实现资源/工具/提示的托管、注册与渲染,面向本地开发环境的可扩展上下文服务。

AI与计算

AgentMux MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,实现对资源、工具和提示模板的统一管理,并通过 JSON-RPC 与 LLM 客户端进行交互,支撑多传输协议的上下文服务与安全扩展能力。

AI与计算

Interactive LeetCode MCP 服务器

基于 Model Context Protocol (MCP) 的 LeetCode 学习与练习后端,提供资源、工具、提示等标准化访问,并通过 JSON-RPC 形式对接大型语言模型客户端

AI与计算

Toolkit-MD MCP 服务端

基于模型上下文协议(MCP)的后端实现,提供对 Markdown 内容资源的托管与管理、工具注册与执行,以及可渲染的 Prompt 模板,供 LLM 客户端通过 JSON-RPC 进行资源读取、工具调用和提示渲染等交互,包含可运行的服务器端代码与完整工具集。

AI与计算

term-llm MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供外部工具注册、资源管理和提示渲染等能力,并通过 JSON-RPC/stdio 等传输与客户端进行交互。

AI与计算

AMReXAgent MCP Adapter

基于 Model Context Protocol (MCP) 的服务器端实现,用于通过 JSON-RPC 提供 AMReXAgent 的资源管理、工具注册/执行以及 Prompt 模板的渲染等上下文服务,并对外提供可扩展的传输方式(如 stdio)。该仓库中实现了一个真实的 MCP 服务器入口、工具注册、请求分发与执行通道,确保客户端能以统一的协议访问后端能力。

AI与计算

Agent Backend MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,能对本地/远程/内存等后端暴露资源、注册工具、渲染提示模板,并通过 MCP 客户端进行标准化的上下文服务与功能调用。

网页与API

Vörðr MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,通过 HTTP 的 JSON-RPC 提供资源、工具和提示模板等能力给 LLM 客户端进行上下文查询与功能调用,核心与后台容器生命周期、网络/镜像等能力集成在一个可扩展的 MCP 服务端中。

AI与计算

DURA MCP 服务器

基于模型上下文协议(MCP)的后端服务,向大语言模型客户端提供依赖分析、风险评估、工具执行和提示渲染等能力。通过 JSON-RPC 与客户端通信,支持资源管理、工具注册、Prompts 定义与多种传输通道(如 Stdio),实现对后端分析流程的标准化上下文服务。

网页与API

BBQ Party GitHub App MCP 服务端

基于模型上下文协议(Model Context Protocol, MCP)的服务器实现,提供对 GitHub 相关资源的访问与工具执行能力,并通过 JSON-RPC 与客户端进行通信,支持以 STDIO 传输进行交互的实际服务器实现。

AI与计算

ucon MCP 服务器

基于 Model Context Protocol(MCP)的后端服务,提供统一的资源管理、工具注册与执行、Prompt 模板渲染等能力,通过 JSON-RPC 与 LLM 客户端通信,用于单位转换、维度分析与上下文服务等场景。该实现将 ucon 的单位/维度计算能力暴露为可被 AI 客户端调用的后端服务。

AI与计算

pyscn-mcp MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,为 MCP 客户端提供 pyscn 的资源访问、工具注册/执行和提示模板渲染能力,通过 JSON-RPC 与客户端通信,支持多种传输通道并实现会话管理与能力声明。该实现以 pyscn 的命令行分析能力为核心,暴露给 AI 辅助工具集成使用。

网页与API

The Dead Internet MCP Hub

基于 Model Context Protocol (MCP) 的后端服务器,实现对资源、工具和提示模板的标准化对外接口,通过 JSON-RPC/SSE 与 LLM 客户端进行交互,提供会话管理、能力声明以及多传输协议支持的 MCP 服务端能力。

AI与计算

CookaReq MCP 服务端

基于 Model Context Protocol (MCP) 的本地化后端服务,嵌入式使用 FastAPI 提供 MCP 资源、工具和 Prompt 的注册、管理与渲染,并通过 JSON-RPC 与 LLM 客户端通信,支持会话管理和多种传输方式。

网页与API

mage-remote-run

基于 Model Context Protocol (MCP) 的服务器端实现,将 Mage Remote Run CLI 的命令注册为 MCP 工具,通过 TCP/STDIO 或 SSE 支持的传输协议向 LLM 客户端提供资源、工具执行能力与 Prompts 渲染等上下文服务。

开发者工具

Hatch MCP 服务器端

基于 Hatch CLI 的 MCP(模型上下文协议)后端实现,提供资源与数据访问、工具注册与执行、以及 Prompts 渲染等能力。服务器通过 JSON-RPC 与 AI 客户端通信,注册多种工具并暴露给客户端,支持通过标准输入/输出(stdio)等传输方式进行交互,适合作为 LLM 助手的上下文与功能服务端。该实现包含完整的服务器端逻辑、工具注册、认证、以及与 Hatch API 的交互。

AI与计算

HUMMBL MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端以标准化的 JSON-RPC 形式提供资源、工具和提示模板,支持会话管理、能力声明以及多传输协议接入,具备资源管理、工具注册、流程模板渲染等完整功能。该实现包含服务端核心组件、工具/资源注册、数据框架、以及与 Claude Desktop 等客户端对接所需的 stdio 传输入口。

AI与计算

AtomCLI MCP 服务器

基于 AtomCLI 的 Model Context Protocol (MCP) 服务器实现,向 LLM 客户端以标准化方式提供资源、工具、提示模版与会话管理等上下文能力,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 Stdio、SSE、WebSocket)与灵活的配置扩展。

AI与计算

Omni-Dev-Fusion MCP 服务器实现

基于 Model Context Protocol 的后端服务实现,提供资源、工具、Prompts 的注册与管理,并通过 JSON-RPC 与客户端通信,支持多传输协议(STDIO、SSE、WebSocket),实现会话管理和能力声明,用于为 LLM 客户端提供一致的上下文与功能服务。

AI与计算

StackRox MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,向大语言模型客户端提供统一的上下文信息与功能入口。服务器负责托管与管理资源、注册与执行工具、定义与渲染提示模板,并通过 JSON-RPC 风格的协议与客户端交互,支持多种传输方式(如 HTTP/1.1 桥接、WebSocket、STDIO),实现安全、可扩展的上下文服务框架。目前处于开发者预览阶段,功能与接口可能在后续版本中变动。

AI与计算

PackRun MCP 服务器

基于 Model Context Protocol (MCP) 的服务端实现,向大型语言模型客户端以标准化方式提供资源、工具与对话上下文能力,支持 JSON-RPC 交互并集成多源数据健康与替代项查询。

AI与计算

ShipSec Studio - MCP 测试服务器

一个基于 Model Context Protocol(MCP)的简单可运行 MCP 服务器示例,用于测试客户端对 MCP 的调用与交互,提供一个单工具(get_weather)的测试服务并通过标准输入输出(stdio)与客户端通信。

AI与计算

Ark UI MCP 服务器

基于 Model Context Protocol(MCP)的后端服务,向 MCP 客户端提供资源、工具和提示模板等上下文能力,支持通过 JSON-RPC 与客户端通信,并可通过多种传输方式(stdio、SSE/HTTP)进行交互。

AI与计算

Knowledge Agent MCP 服务器

基于 Model Context Protocol 的 MCP 服务端实现,用于向 LLM 客户端提供资源、工具和提示模板的标准化上下文与功能服务,支持多传输协议并通过 JSON-RPC 进行通信。

AI与计算

Chakravarti 模型上下文后端服务 (MCP)

基于 Model Context Protocol 的后端服务器实现,向大型语言模型客户端提供资源管理、工具注册/执行、以及可渲染的 Prompt 模板,并通过 JSON-RPC 进行通信,支持标准输入输出(stdio)传输等多种传输协议,以实现统一的上下文服务和外部功能访问。

AI与计算

GraphJin MCP 服务端

基于 GraphJin 的 MCP 服务器实现,为 LLM 客户端提供标准化的上下文服务,包含资源管理、工具注册和提示模板等上下文能力,支持通过 STDIO 和 HTTP 代理两种传输模式进行 JSON-RPC 通信,方便与 Claude Desktop 等 AI 助手对接。

AI与计算

Ouroboros MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源管理、工具注册与执行、以及可渲染的提示模板,通过 JSON-RPC 与客户端进行通信,并支持多传输协议(如 STDIO、SSE、WebSocket),为大语言模型应用提供可扩展的上下文服务框架。

AI与计算

ClawRAG MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,为 OpenClaw 等 LLM 客户端提供标准化的资源、工具和提示模板服务,支持 StdIO/HTTP SSE 等传输方式,通过 JSON-RPC 与客户端通信并暴露 MCP 工具与服务器信息。

AI与计算

Dooray MCP Server

基于 Model Context Protocol (MCP) 的 Dooray MCP 服务器实现,向大型语言模型客户端以标准化方式提供上下文信息与功能。核心能力包括托管与管理资源(Resources)、注册并执行工具(Tools)、定义与渲染提示模板(Prompts),并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,以及多传输协议(如 Stdio、SSE、WebSocket)的扩展能力。

AI与计算

ShipUI MCP 服务端

基于 Model Context Protocol (MCP) 的 ShipUI 后端实现,提供资源托管、工具注册与执行、以及提示模板的 MCP 服务端,能通过 JSON-RPC 与各类 MCP 客户端通信,支持标准的会话管理与多传输通道(如标准输入输出)。

网页与API

You.com MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供工具注册、资源管理和内容/搜索相关能力,支持通过 JSON-RPC 与客户端通信,涵盖 STDIO 与 HTTP 两种传输方式的 MCP 服务端实现。

AI与计算

Mackerel MCP服务器

基于 Model Context Protocol 的 MCP 服务器,提供资源、工具与提示模板的后端服务,通过 JSON-RPC 与 MCP 客户端通信,内置对 Mackerel API 的多工具封装,支持多传输通道(如标准输入输出、SSE、WebSocket)以向大语言模型客户端提供可扩展的上下文服务。

AI与计算

Spark-MCP 服务器端

基于 Model Context Protocol 的后端服务器,向大语言模型(LLM)客户端以标准化的 JSON-RPC 形式提供资源、工具和提示模板等上下文服务,并通过 SSE/HTTP 等传输协议实现资源托管、工具注册与 Prompt 渲染等核心能力。

AI与计算

J-Code MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端服务,作为 MCP 服务器向 LLM 客户端提供资源管理、工具注册与执行、以及 Prompt 模板渲染等上下文能力;通过 JSON-RPC(NDJSON/多传输协议)与客户端通信,支持会话管理、模型切换、跨服务协同等扩展能力,适配多种传输协议(如 Stdio、SSE、WebSocket)以为 LLM 应用提供安全、可扩展的上下文服务框架。

AI与计算

Cronitor MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务,提供资源与工具的注册、对接外部数据源,并通过 JSON-RPC/stdio 方式与 MCP 客户端通信,以支持 LLM 场景下的上下文、工具调用与提示模板渲染。

AI与计算

Fulcrum MCP 服务器实现

基于 Model Context Protocol 的 MCP 后端实现,提供资源管理、工具注册与执行、以及提示模板渲染等核心能力,并通过 JSON-RPC 与客户端进行交互,具备会话管理与多传输通道支持,适用于向大语言模型客户端提供结构化上下文与外部功能入口。

AI与计算

Gemini File Search MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,注册并暴露一组用于文件检索、文档管理与查询的工具,供大语言模型客户端通过 JSON-RPC 调用、统一上下文信息与功能。

AI与计算

Thanos MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,负责以标准化的 JSON-RPC 方式向 LLM 客户端提供资源管理、工具注册/执行以及 Prompts 渲染等能力,并支持多传输协议(如 Stdio、SSE、WebSocket),实现会话管理、能力声明和可扩展的上下文服务框架。

AI与计算

hono-mcp-server

基于 Model Context Protocol (MCP) 的后端服务器,将 Hono API 端点暴露为 MCP 工具,核心实现包括资源托管、工具注册/执行、提示模板渲染,并通过 JSON-RPC 与客户端通信,支持多种传输协议(如 Stdio、SSE、WebSocket),为 LLM 客户端提供安全、可扩展的上下文服务。

AI与计算

Prime Workflow MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,提供向 LLM 客户端暴露资源、注册与执行工具、以及渲染提示模板的能力,并通过 JSON-RPC/多传输协议与客户端互动,内置对 Confluence、Slack、Swagger 等外部工具的集成。

开发者工具

mockd MCP 服务端

基于 MCP(Model Context Protocol)的后端服务器,实现对资源、工具和提示模板的统一管理与渲染,并通过 JSON-RPC 与 LLM 客户端进行交互,支持多传输协议以适配不同应用场景。

AI与计算

Valence MCP 服务器端

基于 Model Context Protocol (MCP) 的后端实现,作为 LLM 客户端的上下文服务提供者,托管与管理 Resources(资源)、Tools(工具)以及 Prompts(提示模板),并通过 JSON-RPC 与客户端进行请求/响应通信,支持多传输协议(如 Stdio、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文服务框架。

AI与计算

MCP 服务器实现示例(JavaScript 与 Java)

本仓库提供基于 MCP 的服务器实现示例,包含 JavaScript 与 Java 两种实现,展示如何注册工具、提供能力、以及通过标准化的 JSON-RPC 与 LLM 客户端交互,支持多种传输协议并进行会话与能力声明管理。

网页与API

f5xc-api-mcp

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与提示模板渲染等能力,供 LLM 客户端以标准化方式获取上下文信息和外部功能访问。

AI与计算

Abathur Swarm MCP服务器

基于 Model Context Protocol (MCP) 的后端实现,围绕资源管理、工具注册/执行和提示模板渲染,提供通过 JSON-RPC 与 LLM 客户端通信的服务器能力,并在内置组件之间暴露资源、工具、提示等接口,支持多种传输方式与会话管理。该仓库包含用于 Memory/Task/A2A/Events 的 MCP 相关服务端实现以及一个用于启动 MCP 服务器的命令行接口。

AI与计算

HyperPod InstantStart MCP 服务端

基于 Model Context Protocol(MCP) 的后端服务器实现,提供资源管理、工具注册与调用、以及 Prompt 模板渲染等能力,供 LLM 客户端以标准化方式获取上下文、数据与外部功能。

网页与API

tescmd MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端以标准化 JSON-RPC 形式暴露资源、工具和提示,提供会话管理、能力声明、工具注册与执行,以及对多种传输协议的支持,构建可扩展的上下文服务框架。

AI与计算

Conscious Bot MCP 服务器

基于 Model Context Protocol(MCP)的后端服务,作为 LLM 客户端的标准化上下文服务入口,提供资源托管、工具注册/执行、提示模板定义与渲染等能力,并通过 JSON-RPC 与前端/其他组件进行通信,支持嵌入式部署与回退模式,便于实现可扩展的上下文服务框架。

AI与计算

SystemPrompt MCP 服务器套件

基于 SystemPrompt 的 MCP 服务器实现集合,提供资源管理、工具注册与执行、以及提示模板渲染等 MCP 核心能力,供大语言模型客户端通过 JSON-RPC 获取上下文信息与外部功能,并支持多种传输与会话场景。仓库中包含多个 MCP 服务器实现(如 systemprompt、moltbook、content-manager),共同构成一个可扩展的 MCP 后端生态。

开发者工具

Mist MCP Server

基于 Model Context Protocol 的后端服务器,向 LLM 客户端以标准化方式提供上下文资源、可执行工具和可渲染的 Prompt 模板,支持多传输协议(如 STDIO、HTTP、SSE、WebSocket),并实现会话管理与工具加载策略。

网页与API

Verkada 模型上下文协议服务器端实现

基于模型上下文协议(MCP)的 Verkada API 后端服务器,提供资源管理、工具注册与执行,以及提示模板渲染等能力,通过 JSON-RPC 与大语言模型客户端进行通信,具备本地部署与扩展能力,并内置对 Verkada API 的工具集和请求处理框架。

开发者工具

Claude Code Harness MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现。该服务器通过 JSON-RPC 提供对工具的注册与执行、会话管理及跨客户端通信能力,支持多工具整合、Plans 与会话监控等功能,并通过标准传输(如 STDIO)与 MCP 客户端进行交互。该实现可作为 LLM 客户端(如 Claude Code、Codex 等)访问的上下文服务后端。

AI与计算

Mantic.sh MCP 服务端实现

基于 Model Context Protocol 的后端服务器实现,向大语言模型客户端提供统一的上下文服务,包括资源管理、工具注册与执行、以及 Prompt 模板渲染等能力,支持 JSON-RPC 通信和多传输通道(如 STDIO/WebSocket/SSE)以供 AI Agent 调用。

网页与API

v1.npm MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,向大型语言模型客户端提供 npm 包的上下文、健康数据与可用工具,通过 JSON-RPC 形式处置资源、工具、提示模板等能力,并支持 MCP 客户端的连接与调用。

AI与计算

MCP Vector Search 服务器端

基于 Model Context Protocol (MCP) 的后端服务实现,作为 MCP 客户端的服务器端,托管与管理资源、注册与执行工具、定义与渲染 Prompt 模板,并通过 JSON-RPC 与 LLM 客户端通信,提供会话管理、能力声明及多传输协议支持的上下文服务框架。该仓库实现了 MCP 服务器端的核心功能,并与向量检索后端(嵌入、数据库等)进行整合。

开发者工具

ClaudeMemory MCP 服务器

基于 Model Context Protocol (MCP) 的服务器端实现,提供对资源、工具与提示模板的统一管理与渲染,通过 JSON-RPC 与 LLM 客户端进行通信,支持会话管理、能力声明以及多种传输方式,用于在代码分析与开发场景中提供可扩展的上下文服务。

开发者工具

MoonBit MCP 服务器端 SDK

基于 MoonBit 的 MCP 服务器实现,向 LLM 客户端提供资源托管、工具注册和提示模板等上下文服务,并通过 JSON-RPC 进行稳定的通信。

AI与计算

Helicone MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,作为 MCP 服务器向 LLM 客户端暴露 Helicone 的数据资源与工具,并通过 JSON-RPC 进行通信;当前实现注册了若干工具(如 query_requests、query_sessions、use_ai_gateway),实现了通过标准输入/输出的传输(Stdio)运行方式,以供 LLM 客户端调用与交互。

网页与API

The Situation Room MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供标准化的资源、工具、Prompts 等能力,通过 JSON-RPC 与客户端通信,支持公开的 MCP 接入点与工具集注册,便于 LLM 客户端获取上下文信息、执行外部功能与获取 Prompt/模板等能力。

开发者工具

mcp-datahub

基于 MCP(Model Context Protocol)构建的 DataHub 元数据上下文后端服务器,提供资源管理、工具注册与执行,以及与查询引擎的上下文结合,供 LLM 客户端通过 MCP JSON-RPC 方式获取资源、工具与提示模板等上下文信息。

网页与API

Domain Search MCP

基于 Model Context Protocol (MCP) 的完整服务器实现,用于向大模型客户端提供域名可用性查询、价格比较、工具调用、以及 TLD 信息等上下文服务,并通过 JSON-RPC 方式与客户端通信。

AI与计算

Agent Assistant MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供工具注册、资源管理和提示模板渲染等核心能力,通过 JSON-RPC/Connect 框架与 MCP 客户端进行标准化通信,支持多个传输和会话能力,服务端还与前端 Web 界面和后端资源/工具链进行协作。

AI与计算

Agent Zero MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,面向 LLM 客户端提供统一的上下文信息、资源、工具与提示模板的管理与执行能力。服务器通过 JSON-RPC 风格的交互,支持资源读取、工具注册/执行、Prompts 渲染等核心功能,并具备会话管理、能力声明,以及对多种传输协议(如 STDIO、SSE、WebSocket 等)的扩展支持,适合在本地或服务端环境中作为 MCP 服务端使用。

AI与计算

OpenMemory MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,提供资源/工具/提示模板的管理与渲染,通过 JSON-RPC 与 LLM 客户端进行交互,支持 HTTP 与 STDIO 等传输模式的多种通信方式。

通信与社交

Outlook MCP Server

基于 Model Context Protocol (MCP) 的邮件上下文后端,为大模型/LLM 客户端提供资源访问、工具执行和提示渲染能力;通过 JSON-RPC 与客户端通信,支持在本地Outlook 环境中进行邮件加载、查询、撰写与批量转发等操作,并提供服务端会话管理与工具注册机制。该实现面向在 Windows 上使用 Outlook 的场景,核心目的是为 LLM 应用提供可扩展、可控的上下文服务。

AI与计算

cctelepathy MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等能力,面向 Claude Code 等 LLM 客户端提供标准化的上下文与功能服务。

AI与计算

AimDB MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,实现对 Resources、Tools 与 Prompts 的托管、注册与渲染,并通过 JSON-RPC 2.0 与 LLM 客户端进行通信,支持资源读取/订阅、工具调用、提示获取,以及远程订阅通知等功能。该实现包含完整的服务器端约束、路由、订阅管理与通知输出,具备可运行的 MCP 服务端能力。

网页与API

MediaWiki MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,向大型语言模型提供 MediaWiki 的资源访问、工具执行和提示模板渲染等上下文服务。服务器支持多种传输模式(标准输入输出、HTTP),并实现会话管理、权限控制、可观测性和安全保护,帮助 LLM 客户端以标准化方式查询 wiki 内容、执行外部工具以及获取/渲染 Prompt 模板。

AI与计算

OpenMarkets MCP 服务器

基于 Model Context Protocol 的后端服务器,向大型语言模型客户端提供资源、工具和提示模板等上下文与功能,并通过 JSON-RPC 进行通信与协作。

AI与计算

SentryFrogg MCP 服务器

基于 Model Context Protocol (MCP) 的 STDIO 交互后端,为大语言模型客户端提供资源管理、工具注册/执行以及提示模板渲染的统一上下文服务。

AI与计算

365DaysOfData MCP 服务器(From Scratch)

基于模型上下文协议(MCP)的后端实现示例,包含可运行的 MCP 服务器代码、工具/资源注册以及简单的 Prompt 管理能力,能够通过标准化的 JSON-RPC 方式与客户端交互。

AI与计算

AC2-MCP 服务器(多智能体上下文服务)

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及 Prompt 的定义/渲染,支持通过多种传输方式进行 JSON-RPC 通信,供 LLM 客户端以标准化方式获取上下文、调用外部工具并渲染对话模板。

数据库与文件

QueryGenie PostgreSQL MCP Server

基于模型上下文协议(MCP)的 PostgreSQL 只读服务器实现,向LLM客户端提供结构化数据库资源、工具注册与提示渲染能力,通过JSON-RPC风格的MCP接口进行交互,支持多数据库只读查询、模式描述、索引/外键查询以及健康监控等功能。

AI与计算

Chrome DevTools MCP 服务端实现

基于 Model Context Protocol (MCP) 的服务端实现,用于向基于 MCP 的中文/英文客户端提供标准化的上下文信息与功能。核心职责包括托管与管理 Tools、Resources、Prompts,支持通过 JSON-RPC 与客户端通信,提供会话管理、能力声明以及多传输协议的支持,适合在浏览器环境或本地服务中搭建对 LLM 的上下文服务框架。

AI与计算

VidCap YouTube API MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,作为 VidCap YouTube API 的上下文服务提供方,管理资源与工具,支持 JSON-RPC 的请求/响应,并通过 STDIO、流式 HTTP/WebSocket 等传输方式与 MCP 客户端进行交互,便于 AI 助手在对话中获取视频数据、执行外部功能和渲染提示模板。

AI与计算

CC-Switch MCP 服务器实现

基于模型上下文协议(MCP)的服务器端实现,提供资源托管、工具注册/执行以及 Prompts 定义与渲染,通过 JSON-RPC 与 LLM 客户端通信,支持多种传输方式并具备会话管理与跨应用的 MCP 服务器管理能力。

AI与计算

py-code-mode

基于 MCP 的后端服务,为大语言模型客户端提供标准化的上下文信息与功能支持,托管资源、注册工具、定义与渲染提示模板,并通过 JSON-RPC 与客户端交互,支持多种传输协议与会话管理。该仓库实现了 MCP 相关组件与服务器端能力,旨在在本地或分布式环境下提供可扩展的上下文服务。

AI与计算

OpenTiny NEXT-MCP 服务器实现套件

基于 Model Context Protocol 构建的 MCP 服务器实现集合,提供资源与工具的托管、Prompt 定义及渲染能力,并通过 JSON-RPC 与客户端通信,支持多入口输出、浏览器扩展场景,以及跨进程/跨页面的上下文服务能力。

AI与计算

clai MCP 服务器框架

基于 Model Context Protocol (MCP) 的服务器框架,提供对 MCP 请求/响应的处理能力、资源与工具注册管理,以及通过 JSON-RPC 与客户端进行通信的多进程服务器支持与会话管理。

AI与计算

Joern MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,结合 Joern 代码分析平台,为 LLM 客户端提供统一的资源管理、工具注册、提示模板渲染等上下文服务,并通过 JSON-RPC 支持多种传输协议(如 stdio、SSE、WebSocket)来读取资源、执行工具和渲染 Prompt。该服务器实现了 MCP 的核心功能,包含会话管理、能力声明以及对外暴露的丰富工具和资源接口。

AI与计算

mcpd

基于 Model Context Protocol 的 MCP 服务器端后端,提供资源与工具的托管、会话管理、以及与 MCP 客户端的 JSON-RPC 通信,辅以网关、调度、工具聚合等模块实现对 MCP 服务的弹性编排与扩展。

AI与计算

Dingo MCP Server

基于模型上下文协议(MCP)的后端服务器,向LLM客户端标准化提供资源管理、工具注册/执行以及可自定义的提示模板渲染,通过 JSON-RPC 进行通信与协作。

AI与计算

FlyFun MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务端实现,作为 MCP 服务器向大语言模型客户端提供标准化的资源管理、工具注册/执行以及 Prompt 模板渲染等能力,使用 JSON-RPC 进行通信,并支持会话管理与多传输协议(如 Stdio、SSE、WebSocket)以满足多样化上下文服务需求。

AI与计算

AutomatosX

基于 Model Context Protocol (MCP) 的后端服务器实现,作为 AI 客户端的上下文服务中心,提供资源(Resources)管理、工具(Tools)注册与执行、以及 Prompt 模板(Prompts)的定义与渲染,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明与多种传输协议以便进行安全、可扩展的上下文服务。

网页与API

Fi-MCP 财务上下文管理服务器

基于 Model Context Protocol (MCP) 的后端服务器,实现了资源(数据)托管、工具注册与执行、以及提示模板渲染等核心能力,并通过 JSON-RPC 方式与客户端通信,具備会话管理、能力声明以及对多传输协议的支持,用于为 LLM 客户端提供可扩展的金融上下文服务。

AI与计算

EdgarTools MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,面向 LLM 客户端提供统一的上下文资源、可注册的工具以及可渲染的 Prompt 模板。通过 JSON-RPC 与客户端通信,支持会话管理、能力宣告,以及多传输协议(如 Stdio、SSE、WebSocket)等扩展能力,适配 Claude 等 AI 助手的上下文服务需求。

AI与计算

Stim Model Context Protocol (MCP) 服务器

基于 Model Context Protocol 的后端服务器实现,提供资源与工具的托管、Prompt 模板的渲染,以及通过 JSON-RPC 与 LLM 客户端进行通信的能力,支持标准化的会话管理与多传输通道(如 stdio)。

开发者工具

MCP Any通用适配器

一个配置驱动的MCP服务器,通过简单配置将任何API转换为MCP兼容的工具,无需为每个服务编写单独的服务端代码

网页与API

AI Agent通用工具集MCP服务器

提供一套基于MCP协议的通用工具集,支持LLM客户端访问网页搜索、天气查询和航班搜索等功能。

AI与计算

MCP Spring AI 服务

基于 Spring Boot 和 Spring AI 的 MCP 服务器,集成 AI 模型并可管理外部 MCP 服务。

AI与计算

NanoAgent MCP 服务器

基于 NanoAgent 微框架的 MCP 服务器组件,用于托管和远程调用工具。

开发者工具

Go MCP SDK

Go语言实现的Model Context Protocol (MCP) 开发工具包,用于构建LLM客户端与外部环境交互的服务器和客户端应用。

开发者工具

AI便签MCP服务器演示项目

一个基于Python的MCP服务器演示,用于AI便签应用,提供资源、工具和Prompt管理功能。

AI与计算

A2A代理伙伴服务器

基于A2A协议实现的代理伙伴服务器,提供工具注册、任务管理和推送通知等功能,用于构建智能代理协作系统。

开发者工具

Micronaut MCP工具PoC服务器

基于Micronaut框架构建的MCP服务器PoC,专注于提供工具注册和调用功能,通过标准输入/输出与客户端通信。

开发者工具

Axiom MCP Server

基于 Axiom 平台的 MCP 服务器实现,提供资源管理、工具注册和 Prompt 模板服务,支持 LLM 应用构建。

开发者工具

MCP工具自动注册器

mcp-auto-register是一个Python包,用于自动化将Python包中的函数和类注册为FastMCP服务器的工具,简化MCP服务器的工具配置过程。

开发者工具

Cloudflare Remote MCP Server

基于Cloudflare Workers实现的远程MCP服务器,提供资源管理、工具注册和Prompt模板渲染等MCP核心功能,并支持OAuth登录。

开发者工具

OpenAI Agents SDK MCP示例服务器

基于OpenAI Agents SDK的MCP示例服务器,提供工具注册和SSE传输功能,演示MCP协议后端实现。

开发者工具

MCP服务器Python模板

基于Python的MCP服务器快速开发模板,提供工具注册和SSE/Stdio传输支持,简化AI应用后端构建。

AI与计算

wildfly ai feature pack

WildFly AI Feature Pack为Jakarta EE应用提供实验性的Model Context Protocol (MCP) 服务器功能,简化AI集成。

AI与计算

mcp server

一个基于 Model Context Protocol (MCP) 的简化服务器实现,旨在降低 MCP 服务器的开发门槛,并提供工具注册和执行的核心功能。

开发者工具

kotlin sdk

kotlin-sdk仓库是一个基于 Model Context Protocol (MCP) 的 Kotlin SDK,它提供了构建MCP客户端和服务器端应用的能力,支持资源、工具和Prompt模板的管理,以及多种传输协议。

开发者工具

quarkus mcp server

Quarkus MCP Server扩展,简化了基于Quarkus框架构建Model Context Protocol (MCP) 服务器的流程,支持资源、工具和Prompt模板的声明式API。

开发者工具

mcp boilerplate

MCP Boilerplate项目是一个用于快速搭建MCP服务器的脚手架,实现了基础的工具注册和调用功能,方便开发者快速构建与LLM客户端交互的上下文服务后端。

开发者工具

Pulse MCP Server

Pulse MCP Server 是一个用于发现和探索 MCP 服务器及其集成的工具,通过 PulseMCP API 提供服务器列表和集成信息。