← 返回首页

"资源与工具管理"标签的搜索结果

找到 41 个结果

ralph-starter MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,提供资源、工具和提示模板等上下文能力,面向 LLM 客户端以标准化的 JSON-RPC 形式进行交互,支持多传输协议并实现会话管理与能力声明。

FinanceServer MCP 后端

基于 Deno 的 MCP(模型上下文协议)服务端实现,提供用于 LLM 客户端的上下文资源、工具调用与提示模板等能力,支持多场景的 MCP 会话(如全局、账单/支出等),通过 JSON-RPC/流式传输与客户端进行交互,具备会话管理、能力声明以及多种传输协议的支持。该仓库不仅实现服务器端路由与会话,还对接了数据库、OAuth、以及 MCP 服务实例化等核心组件,形成完整的 MCP 服务端框架。

MIDL MCP 服务器(Bitcoin 与 L2-MIDL 集成)

基于 Model Context Protocol (MCP) 的后端服务,实现资源托管、工具执行以及提示模板渲染,供大语言模型在 MIDL 区块链生态中安全、可扩展地获取上下文信息并执行相关操作。

Wrangler MCP 服务器

基于 Model Context Protocol 的后端服务器,向大语言模型客户端提供资源管理、工具执行与提示模版渲染等上下文服务,支持会话管理与多传输协议。

Claude-Playwright MCP 服务器

基于 Model Context Protocol 的 MCP 后端,为大语言模型提供上下文资源、工具调用和提示模板渲染等能力,支持 JSON-RPC 通信及多传输协议扩展,内置浏览器自动化与会话/缓存等核心模块。

Kernel MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,为大模型客户端提供统一的资源、工具和提示的对话上下文服务,集成 Kernel 平台的浏览器自动化和应用执行能力,并通过 OAuth2 进行安全鉴权与授权。

Pulse MCP 服务端

面向大语言模型的后端MCP服务器,实现通过JSON-RPC向LLM客户端提供资源、工具和Prompt相关的上下文服务,支持跨GitHub、Jira、Confluence的数据获取与操作,以及会话管理与多传输协议接入的能力。

LakeFlow MCP 后端服务器

基于模型上下文协议(MCP)的后端服务,实现资源、工具及提示模板的注册、执行与管理,提供 JSON-RPC 通信能力,便于让大语言模型客户端通过 MCP 调用 Databricks 作业等功能。

Enterprise MCP Bridge

基于 FastAPI 的服务器端实现,将任意基于 Model Context Protocol (MCP) 的服务暴露为标准的 HTTP/JSON 接口,向语言模型客户端提供资源数据、工具调用、提示模板等上下文能力,并具备多租户会话、OAuth 安全、令牌管理与流式输出等企业特性。它实现了 MCP 的核心组件组合与对外暴露的服务入口,便于整合到企业微服务架构中。

OpenBotAuth MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供策略评估、计费意图创建与使用计量等工具,通过 JSON-RPC 与 LLM 客户端交互,支持多种传输方式,作为 AI 代理上下文服务的核心服务器组件。

axel-backend

基于模型上下文协议(MCP)的后端实现,提供资源(Resources)托管、工具(Tools)注册与执行,以及 Prompts 定义与渲染,并通过 SSE/stdio 等传输方式与 LLM 客户端以 JSON-RPC 风格进行通信的完整 MCP 服务器实现。

Sherpa MCP 服务器集成实现

基于 Model Context Protocol(MCP)的后端服务器集合,提供资源管理、工具执行、以及可自定义的提示模板渲染等功能,通过 JSON-RPC 与 LLM 客户端通信,支持多传输协议与安全、可扩展的上下文服务。

sindi-ai-mcp-server

基于 Model Context Protocol (MCP) 的 Java 实现的 MCP 服务器端,提供对资源、工具、提示的注册与执行,以及会话管理与多传输协议(REST/Servlet/SSE、Streamable HTTP)的支持,通过 JSON-RPC 与客户端进行通信。

Codebrain MCP 服务器

基于 Model Context Protocol (MCP) 的后端上下文服务实现,提供资源管理、工具注册与执行、以及 Prompts 渲染等能力,通过 JSON-RPC 与客户端通信,支持标准传输(如 Stdio 传输)以提供对话上下文和外部功能的统一访问。

Orchestra MCP 服务器

基于 Model Context Protocol 的后端服务,使用 FastAPI 构建,提供资源、工具与提示模板等 MCP 功能,并通过 JSON-RPC 与客户端通信为大型语言模型客户端提供上下文和能力服务(如资源访问、工具调用与提示渲染)。服务器通过对外暴露的 MCP 路由实现对接、会话管理与多传输协议的支持(如 SSE/StdIo/WebSocket 等),以实现可扩展的上下文服务框架。

Sirchmunk MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供对 Sirchmunk 的资源托管、工具注册与执行,以及提示模板渲染等能力,向 LLM 客户端以标准化的 JSON-RPC 方式提供上下文与功能服务。

AutoForge MCP 服务端

基于模型上下文协议(MCP)的后端实现,用于向 LLM 客户端提供资源管理、工具注册/执行以及 Prompt 模板渲染等能力,并通过 JSON-RPC/WebSocket 等传输协议进行通信。本仓库包含完整的服务端实现、工具暴露、Prompts 加载与渲染、会话管理以及安全策略,能够作为可运行的 MCP 服务器端提供上下文服务。

tooltest MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源与工具的注册/管理、Prompt 的定义与渲染,以及会话管理与协议能力声明,支持通过标准输入输出或流式 HTTP 等传输协议与客户端进行 JSON-RPC 通信,用于为大型语言模型(LLM)提供上下文信息与外部功能访问能力。

enjoy MCP 服务器

基于 MCP(Model Context Protocol)的后端服务,提供通过 JSON-RPC 与 LLM 客户端进行交互的能力,允许对工具进行注册与执行、获取项目状态与排行榜等,并通过标准传输(如 STDIO)实现与 Claude/GPT 等客户端的无缝对接。

Path402 MCP Server

基于 Model Context Protocol (MCP) 的后端实现,作为对话型LLM客户端的后端服务,托管并管理资源(Resources)、注册与执行工具(Tools)、定义并渲染 Prompt 模板(Prompts),通过 JSON-RPC 与客户端通信,支持 stdio 与 HTTP 等传输方式,提供会话管理和能力声明的上下文服务框架。

VMark MCP 服务器

基于 Model Context Protocol 的完整 MCP 服务器实现,提供资源管理、工具执行、以及与 LLM 客户端的 JSON-RPC 风格通信,支持多种传输路径与本地侧车集成。

Doubao MCP Server

基于火山引擎豆包 API 的 MCP 协议后端,提供文本到图像、文本到视频、图像到视频等多模态内容生成的资源、工具注册与提示模板渲染,面向 LLM 客户端的标准化上下文服务。

ContextVM MCP服务器实现 SDK

基于 Model Context Protocol 的 MCP 服务器实现,提供资源与工具的注册与管理、提示模板定义,并通过 JSON-RPC 协议与 LLM 客户端进行上下文和功能交互,支持多种传输层(如 Nostr、Stdio 等)的安全扩展和会话管理。

AdCP销售代理 - MCP上下文协议服务器实现

基于模型上下文协议(AdCP)的后端服务器实现,提供资源(Resources)托管与管理、工具(Tools)注册及执行、以及提示模板(Prompts)的定义与渲染,并通过JSON-RPC 与客户端通信,支持多租户、多传输协议(如官方的Stdio、SSE、WebSocket)以为LLM应用提供安全、可扩展的上下文服务框架。

Claude Team MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,提供多智能体协作、资源与工具管理、Prompts 定义与渲染等能力,并通过 JSON-RPC 与客户端通信(当前实现以 Stdio 传输为主)。该服务器承担会话管理、能力声明、工具注册与执行、以及任务编排等核心职责,支持扩展的工具集和工作流模板,适合为 LLM 客户端提供标准化的上下文服务。 jovens

Co-Op MCP 服务端

基于 MCP(Model Context Protocol)的后端服务器实现,提供资源管理、工具执行与上下文提示渲染等能力,支持 LLM 客户端以标准化的 JSON-RPC/HTTP 方式进行通信与协作。

Ninja Multi-Module MCP Server

基于 Model Context Protocol 的后端服务器集合,提供 coder、researcher、secretary 三个独立的 MCP 服务器,用于托管资源、注册执行工具、渲染提示模板,并通过 JSON-RPC/多传输协议与 LLM 客户端交互,适用于 AI 驱动的开发工作流。

Atlas CRM Headless MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,为多租户 CRM 提供资源、工具与提示模板的上下文服务,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多单位配置与安全访问。

CardForge MCP Server

基于 MCP 协议的 Claude Desktop 集成后端,为 MTG CardForge 提供资源、工具和提示模板等上下文服务,用于向 LLM 客户端提供统一的数据访问、工具执行和对话模板渲染能力。

ToolWeaver MCP Server

一款基于 Model Context Protocol(MCP)的后端服务器框架,向大语言模型客户端以标准化方式提供资源管理、工具注册/执行以及提示模板渲染等功能,支持 JSON-RPC 通信、会话管理、能力声明,并可通过多传输协议(如 Stdio、SSE、WebSocket)进行扩展与部署。

Claude 工作区 MCP 服务器集合

基于 Model Context Protocol (MCP) 的后端服务集合,为 Claude Code 场景提供可扩展的上下文信息、资源数据、工具执行与提示模板渲染等能力。通过 JSON-RPC/stdio 与客户端通信,支持多传输方式,集成多个 MCP 服务器实现以实现持续化的脚本执行、浏览器自动化和工具调用等功能。

Ayrshare MCP Server

基于 FastMCP 实现的 MCP 服务器,提供 Ayrshare 的资源、工具与 prompts,通过 JSON-RPC 与大模型客户端交互,实现统一的内容管理、外部功能调用与提示模板渲染能力。

Workstation MCP Server

基于 Model Context Protocol 的后端服务器,为 LLM 客户端提供标准化的上下文、资源、工具与提示模板,并通过 JSON-RPC/WebSocket 实现 MCP 通信与扩展能力,支持会话管理、权限控制与多传输协议接入。

Gobby MCP 服务器实现

基于 Model Context Protocol(MCP)的后端服务器框架,提供资源与工具管理、提示模板,以及通过 JSON-RPC/HTTP/WebSocket 等协议与客户端交互的上下文服务能力。

URSA MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供资源与工具的托管与管理、工具注册与执行、以及 Prompt 模板的渲染,通过 JSON-RPC 与客户端进行通信,支持会话管理与多传输协议扩展。

UCAgent MCP Server

基于 Model Context Protocol (MCP) 的后端服务实现。该仓库通过对工具进行 MCP 适配,提供资源管理、工具注册/调用以及提示模板的统一访问,并通过 JSON-RPC/WSS/流式等传输方式与 LLM 客户端进行通信,具备会话管理与能力声明,能够作为 MCP 客户端的服务端实现。

Autobyteus MCP 服务端实现

基于模型上下文协议(MCP)的后端服务器实现,提供资源(Resources)托管与访问、工具(Tools)的注册与执行,以及提示模板(Prompts)的定义与渲染,支持通过 JSON-RPC 与客户端通信,并具备会话管理与多传输协议(如 Stdio、SSE、WebSocket)扩展能力,为大语言模型(LLM)应用提供安全、可扩展的上下文服务框架。

AI Developer Guide MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供资源、工具和 Prompts 的统一访问与渲染能力,支持通过标准化的 JSON-RPC 进行通信,并可通过 STDIO 等传输通道接入。

tempo-mcp

基于模型上下文协议(MCP)的服务器端实现,向大型语言模型客户端提供 Tempo 区块链的资源、工具和提示模板,并通过 JSON-RPC 进行交互,支持多传输协议与严格的会话与安全机制。

TIA MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源与工具的托管与管理、Prompt/模板的渲染,以及通过 JSON-RPC 与客户端通信的能力,支持多传输通道如 STDIO、WebSocket 等,帮助 LLM 客户端以标准化方式获取上下文、数据访问和外部功能调用。

Unity MCP Vibe

在 Unity 编辑器内原生实现的 MCP 服务器,提供 Resource、Tools、Prompts 等模块的后端能力,允许通过 JSON-RPC 风格的命令注册与执行,与 LLM 客户端进行上下文和功能交互,支持多种传输方式(如 Stdio、SSE、WebSocket)并包含安全与生命周期管理。