← 返回首页

"模型上下文"标签的搜索结果

找到 68 个结果

Agent Layer MCP 服务器框架

基于 Model Context Protocol(MCP)的后端框架,提供资源托管、工具注册与执行、以及基于模板的 Prompt 渲染,支持 JSON-RPC 通信与多传输协议(如 StdIO、SSE、WebSocket)以向 LLM 客户端提供上下文信息与外部功能。仓库不仅包含客户端示例,还实现服务器端能力、Prompts 及与客户端的集成运行逻辑。若要在实际环境中搭建 MCP 服务器,可使用内置的 MCP Prompts 服务器和通用服务器配置来对接不同的 MCP 客户端。

GTM MCP Server

基于 Model Context Protocol 的服务器端实现,作为 MCP 后端为 LLM 客户端提供资源、工具、Prompts 的标准化上下文与功能服务,通过 JSON-RPC 与客户端通信,并支持多种传输方式的扩展与会话管理。

My AI Resources MCP 服务端集合

基于 Model Context Protocol (MCP) 的后端服务器实现集合,用于向大语言模型客户端提供统一的上下文服务,包括资源(Resources)的托管与访问、工具(Tools)的注册与执行,以及提示模板(Prompts)的定义与渲染。仓库内含 Memory Bank 与 Cursor Shortcuts 两个成熟的 MCP 服务器实现示例,均通过标准的 JSON-RPC 形式与客户端通信,并提供以Stdio等多种传输方式的支持。

AMReXAgent MCP Adapter

基于 Model Context Protocol (MCP) 的服务器端实现,用于通过 JSON-RPC 提供 AMReXAgent 的资源管理、工具注册/执行以及 Prompt 模板的渲染等上下文服务,并对外提供可扩展的传输方式(如 stdio)。该仓库中实现了一个真实的 MCP 服务器入口、工具注册、请求分发与执行通道,确保客户端能以统一的协议访问后端能力。

DURA MCP 服务器

基于模型上下文协议(MCP)的后端服务,向大语言模型客户端提供依赖分析、风险评估、工具执行和提示渲染等能力。通过 JSON-RPC 与客户端通信,支持资源管理、工具注册、Prompts 定义与多种传输通道(如 Stdio),实现对后端分析流程的标准化上下文服务。

Temple Vault MCP 服务器

基于 Model Context Protocol 的后端 MCP 服务器,实现资源、工具、提示模板等核心接口,使用 JSON-RPC 与客户端通信,向 LLM 客户端提供资源访问、工具调用与提示渲染能力,并支持多种传输协议(stdio、SSE、streamable-http 等)。

AnkiMCP Server Addon

在 Anki 内部运行的 MCP(Model Context Protocol)服务器端实现,暴露资源、工具与提示模板给本地 AI 客户端,通过本地 JSON-RPC 形式的协议进行资源读取、工具调用与提示渲染,支持跨主线程的安全调用与本地化部署。

Nosia MCP 服务器端

Nosia 的 Model Context Protocol(MCP)后端实现,负责向大语言模型客户端提供资源、工具与提示模板等上下文能力,并通过 MCP 协议规范化地对接外部服务与数据源,支持多租户场景、会话状态管理以及多种传输方式(如 STDIO、SSE、WebSocket),以实现对外部能力的扩展与整合。该项目不仅具备服务端管理能力,还通过服务器端的工具、提示和资源管理,促进 LLM 与外部系统的无缝交互。

Unicon MCP 服务器

基于模型上下文协议(MCP)的后端服务器,向大语言模型客户端提供资源管理、工具执行与提示模板的统一上下文服务,并通过 JSON-RPC 与客户端进行通信。

StackRox MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,向大语言模型客户端提供统一的上下文信息与功能入口。服务器负责托管与管理资源、注册与执行工具、定义与渲染提示模板,并通过 JSON-RPC 风格的协议与客户端交互,支持多种传输方式(如 HTTP/1.1 桥接、WebSocket、STDIO),实现安全、可扩展的上下文服务框架。目前处于开发者预览阶段,功能与接口可能在后续版本中变动。

Agent Framework MCP Server 集合

基于 Model Context Protocol (MCP) 的后端服务实现,为大型语言模型客户端提供统一的上下文资源、工具调用和提示模板渲染能力,并通过 JSON-RPC 进行通信,支持多服务器协作(如 JIRA、GitHub 及任务队列等)。

ShipSec Studio - MCP 测试服务器

一个基于 Model Context Protocol(MCP)的简单可运行 MCP 服务器示例,用于测试客户端对 MCP 的调用与交互,提供一个单工具(get_weather)的测试服务并通过标准输入输出(stdio)与客户端通信。

Revit MCP Server

基于 Model Context Protocol 的 Autodesk Revit 后端服务器,提供资源管理、工具注册/执行和提示模板渲染,并通过 WebSocket 与 LLM 客户端进行 JSON-RPC 风格的上下文服务交互。

Ark UI MCP 服务器

基于 Model Context Protocol(MCP)的后端服务,向 MCP 客户端提供资源、工具和提示模板等上下文能力,支持通过 JSON-RPC 与客户端通信,并可通过多种传输方式(stdio、SSE/HTTP)进行交互。

FRM-MCP 服务器(Formal Reasoning Mode)

基于 Model Context Protocol 的 FRM 后端实现,作为 FRM Desktop 应用的一部分,提供 MCP 服务端能力:注册并执行 FRM 的工具、托管与访问资源、渲染与提供 Prompt 模板等,并通过 JSON-RPC 与客户端通信。当前实现将 MCP 服务运行在 Electron 的主进程中,使用 InMemoryTransport 进行本地通信,适合作为本地集成的 MCP 服务端示例。

Chakravarti 模型上下文后端服务 (MCP)

基于 Model Context Protocol 的后端服务器实现,向大型语言模型客户端提供资源管理、工具注册/执行、以及可渲染的 Prompt 模板,并通过 JSON-RPC 进行通信,支持标准输入输出(stdio)传输等多种传输协议,以实现统一的上下文服务和外部功能访问。

StoreConfig MCP Server

基于 Model Context Protocol (MCP) 的后端实现,作为 StoreConfig 的 MCP 服务器,向 LLM 客户端提供 JSON 结构化的资源、工具和上下文内容,支持通过 JSON-RPC 的请求/响应方式进行资源查询、工具执行、以及对配置模板的交互渲染,帮助 AI 辅助的配置管理场景。

Orderly Network MCP 服务器

基于模型上下文协议(MCP)的后端服务器,向LLM客户端提供资源管理、工具执行和提示模板等上下文信息,支持多传输协议(如 Stdio、HTTP/WebSocket),通过 JSON-RPC 进行请求-响应交互。该实现覆盖资源、工具、Prompts 的注册、查询与渲染,以及会话管理与安全能力声明等核心功能,构成可扩展的对话上下文服务框架。

eBay MCP 服务器端

基于 Model Context Protocol 的服务器端实现,作为后端上下文服务向大型语言模型客户端提供资源、工具与提示模板等能力,支持多传输协议(如 STDIO、HTTP、WebSocket),通过 JSON-RPC 与客户端进行交互,包含会话管理、能力声明与工具/资源模板的注册与渲染。

Sherpa MCP 服务器集成实现

基于 Model Context Protocol(MCP)的后端服务器集合,提供资源管理、工具执行、以及可自定义的提示模板渲染等功能,通过 JSON-RPC 与 LLM 客户端通信,支持多传输协议与安全、可扩展的上下文服务。

J-Code MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端服务,作为 MCP 服务器向 LLM 客户端提供资源管理、工具注册与执行、以及 Prompt 模板渲染等上下文能力;通过 JSON-RPC(NDJSON/多传输协议)与客户端通信,支持会话管理、模型切换、跨服务协同等扩展能力,适配多种传输协议(如 Stdio、SSE、WebSocket)以为 LLM 应用提供安全、可扩展的上下文服务框架。

Clawdentials MCP 服务器

基于 Model Context Protocol 的完整后端服务器实现,提供资源、工具、提示模板等能力,并通过 JSON-RPC 与 LLM 客户端通信,后端使用 Firestore 作为数据存储,支持多种传输协议。

Cronitor MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务,提供资源与工具的注册、对接外部数据源,并通过 JSON-RPC/stdio 方式与 MCP 客户端通信,以支持 LLM 场景下的上下文、工具调用与提示模板渲染。

Codebrain MCP 服务器

基于 Model Context Protocol (MCP) 的后端上下文服务实现,提供资源管理、工具注册与执行、以及 Prompts 渲染等能力,通过 JSON-RPC 与客户端通信,支持标准传输(如 Stdio 传输)以提供对话上下文和外部功能的统一访问。

Mira MCP Server

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具调用与提示模板渲染的标准化上下文服务,并通过 JSON-RPC 与 Claude Code 等客户端交互,支持可扩展的传输模式与会话管理。

mockd MCP 服务端

基于 MCP(Model Context Protocol)的后端服务器,实现对资源、工具和提示模板的统一管理与渲染,并通过 JSON-RPC 与 LLM 客户端进行交互,支持多传输协议以适配不同应用场景。

Farnsworth MCP 服务器

基于 Farnsworth 的 Model Context Protocol(MCP) 服务端实现;通过 MCP 协议向 MCP 客户端暴露资源管理、工具注册/执行以及提示模板等能力,支持多传输协议(如 Stdio、SSE、WebSocket),并实现会话管理与能力声明,提供一个安全、可扩展的上下文服务后端。

CTX MCP 服务端实现

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具与提示模板的托管、注册与渲染,支持基于 JSON-RPC 的通信、会话管理以及多种传输协议(如 STDIO、HTTP、SSE)以供 LLM 客户端调用。

Plan Cascade MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,作为 Plan Cascade 的 MCP 服务端,向 LLM 客户端提供标准化的资源管理、工具注册与执行,以及 Prompt 模板渲染等能力,采用 JSON-RPC 进行请求/响应通信,支持多传输协议、会话管理与能力声明,确保安全、可扩展的上下文服务。

AudioReader MCP Server

基于 Model Context Protocol (MCP) 的 AudioReader 后端实现,暴露工具给 LLM 客户端以读取资源、调用工具、获取并渲染 Prompts 等,便于与 Claude/OpenAI 等对接进行上下文服务和功能调用。

Stitch MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端实现,提供对资源、工具与提示模板的托管、注册与渲染能力,并通过 JSON-RPC 与 LLM 客户端通信。内置会话管理、能力声明以及支持多传输协议的 MCP 服务器代理功能,面向大语言模型应用提供安全、可扩展的上下文服务框架。

SystemPrompt MCP 服务器套件

基于 SystemPrompt 的 MCP 服务器实现集合,提供资源管理、工具注册与执行、以及提示模板渲染等 MCP 核心能力,供大语言模型客户端通过 JSON-RPC 获取上下文信息与外部功能,并支持多种传输与会话场景。仓库中包含多个 MCP 服务器实现(如 systemprompt、moltbook、content-manager),共同构成一个可扩展的 MCP 后端生态。

Mist MCP Server

基于 Model Context Protocol 的后端服务器,向 LLM 客户端以标准化方式提供上下文资源、可执行工具和可渲染的 Prompt 模板,支持多传输协议(如 STDIO、HTTP、SSE、WebSocket),并实现会话管理与工具加载策略。

ha-mcp

基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供 Home Assistant 的上下文资源、工具与 Prompts,通过 WebSocket/REST 等标准接口实现资源管理与工具执行等核心能力。

Codex MCP 服务器端

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及提示模板的渲染,使用 JSON-RPC 与 MCP 客户端通信,支持通过 Stdio 传输等多种通道进行上下文服务交互。

Tweek MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管与管理、工具注册与执行、以及 Prompt 模板渲染等核心功能,能够通过 JSON-RPC 与 LLM 客户端进行上下文信息与功能的标准化交互。服务器端负责会话管理、能力声明与多传输通道支持(如 Stdio、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文服务框架。

Ripperdoc MCP 服务器

基于模型上下文协议(Model Context Protocol,MCP)的后端服务器,向大语言模型客户端提供资源管理、工具注册/执行和提示模板渲染等能力,并通过 JSON-RPC 进行通信与协作,支持多传输协议(如 Stdio、SSE、WebSocket)和会话管理,提供安全、可扩展的上下文服务框架。

RationalBloks MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供 18 个后端工具、资源管理、工具注册与执行,以及提示模板支持,支持 STDIO 与 HTTP 两种传输模式,面向对接大语言模型的上下文信息与外部功能服务。

Grafema MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,为大语言模型(LLM)客户端提供资源托管、工具注册与执行、以及 Prompt 模板渲染等上下文服务;通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,并可通过多传输协议(如 StdIO、SSE、WebSocket)进行安全、可扩展的上下文服务交互。

Kubescape MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,实现资源(Resource)托管、工具(Tools)注册与执行,以及 Prompt 模板的定义与渲染,并通过 JSON-RPC 与客户端通信,提供安全、可扩展的上下文服务,便于 LLM 进行集成查询和调用外部功能。

Tabularis MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管与数据访问、工具注册与执行、以及用于 LLM 的 Prompt 模板渲染。通过 JSON-RPC 与客户端通信,当前实现采用标准输入输出(Stdio)传输,读取客户端请求并输出响应;同时具备会话管理、能力声明与资源/工具渲染等核心能力,便于外部代理或图形化客户端接入以提供上下文信息与外部功能调用。

Linggen MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供以标准化方式向 LLM 客户端提供上下文信息和功能的能力。通过 JSON-RPC 与客户端通信,核心包含工具注册/执行、提示模板渲染,以及与资源/查询接口的集成。当前实现使用 stdio 传输,在服务端对接 Linggen 后端 API 提供的能力,支撑 LLM 在设计、索引与查询场景中的上下文服务。

Inspector:基于模型上下文协议的本地MCP服务器实现

一个完整的MCP服务器实现,提供资源、工具、提示模板等上下文服务,支持JSON-RPC通信、会话管理与多传输协议,面向本地开发、调试和集成OpenAI/Claude等LLM应用。

Koder MCP后端服务器实现

基于 Model Context Protocol (MCP) 的后端服务,集成资源管理、工具注册与执行、以及提示模板渲染等能力,并通过 JSON-RPC 与 LLM 客户端通信,支持多种传输方式(stdio、SSE、HTTP)以提供可扩展的上下文服务框架。

Echo Noise MCP 服务端实现

基于模型上下文协议(MCP)的后端实现,提供资源、工具与 Prompt 的管理与渲染,通过 JSON-RPC 与 LLM 客户端进行通信,支持多传输模式(如 Stdio、SSE、WebSocket)以及会话与能力声明,并可通过 MCP 客户端接入扩展能力。该仓库在后端 Go 语言实现了核心服务,并在 README 提供了配套的 MCP 客户端服务(MCP 服务器端 bundles/示例及接入文档)。

Skrills MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源托管与访问、工具注册与执行、以及提示模板渲染等能力,并通过 JSON-RPC 进行与 LLM 客户端的通信,支持多传输协议用于上下文服务的扩展性。

NTS_MCP_FS 服务器端

基于模型上下文协议(MCP)的企业级后端服务器实现,提供资源管理、工具注册与执行、提示模板渲染等 MCP 服务,通过 JSON-RPC 风格与 LLM 客户端通信,支持会话隔离、能力声明以及多传输协议的上下文服务框架。

UDS-POS MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,提供标准化的资源(Resources)、工具(Tools)以及提示模板(Prompts),通过 JSON-RPC 与 LLM 客户端通信,支持多传输通道并对接 Supabase 数据源,构建面向 AI 赋能的上下文服务框架。该仓库包含一个完整的 MCP 服务器实现(含工具定义、资源暴露、提示模板以及 Prompt 执行逻辑),并以 Stdio 传输方式提供服务入口。

Docmost MCP Bridge 与 MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现与桥接组件,允许 LM 模型/代理通过标准 JSON-RPC 方式读取资源、调用工具、获取与渲染 Prompt 模板等,核心包含一个可运行的 MCP 服务端以及将 Cursor 等客户端接入 Docmost 的桥接层。

Claude Swarm MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,用于托管资源、注册与执行工具、渲染 prompts,并通过 JSON-RPC/事件流等协议为 LLM 客户端提供标准化的上下文服务与能力扩展。

Singular Blockly Model Context Server

基于 Model Context Protocol (MCP) 的后端服务器,为 LLM 客户端提供可管理的资源、可注册的工具和可渲染的 Prompt 模板,通过 JSON-RPC 进行通信,支持多种传输协议(如 Stdio、SSE、WebSocket),并实现会话管理与能力声明等功能。

AICode-MCP 服务端核心

基于 Model Context Protocol (MCP) 的服务器端实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等能力;通过 JSON-RPC 形式与客户端通信,支持多传输协议(StdIO、HTTP、SSE)以向大型语言模型(LLM)客户端提供上下文信息与功能,便于搭建可扩展的 MCC(MCP)后端服务。

Perplexity WebUI MCP 服务端

基于 Model Context Protocol (MCP) 的 MCP 服务器实现,暴露 Perplexity WebUI 的查询能力给大语言模型客户端,通过 FastMCP 提供工具接口,支持会话、模型映射与网页检索等能力。

Super AI Plugin Hub

基于 Model Context Protocol (MCP) 的服务器端框架,聚合、管理资源与工具,并通过 JSON-RPC 将上下文、工具与提示暴露给 LLM 客户端,同时支持本地与远程 MCP 服务器的代理与协作。

TradeArena 模型上下文服务端 (MCP风格后端)

基于 Model Context Protocol 的 MCP-like 服务器实现,提供资源、工具和提示模板等上下文服务,供大语言模型(LLM)客户端以标准化 JSON-RPC 方式读取资源、执行工具、渲染提示等能力,并通过 Sui 区块链进行交易签名与记录。该仓库实现了完整的服务端代码及多类别工具集,支持本地 stdio 传输测试。

clai MCP 服务器框架

基于 Model Context Protocol (MCP) 的服务器框架,提供对 MCP 请求/响应的处理能力、资源与工具注册管理,以及通过 JSON-RPC 与客户端进行通信的多进程服务器支持与会话管理。

MCP Outlet – 通用 MCP 服务器运行时与沙箱代理

基于 Model Context Protocol (MCP) 的后端运行时与代理,提供资源、工具和提示的统一管理,并通过 JSON-RPC 与 MCP 客户端通信,支持多传输协议(stdio、SSE、WebSocket)等,能够在沙箱中运行并托管任意 MCP 兼容的服务器。*

Dingo MCP Server

基于模型上下文协议(MCP)的后端服务器,向LLM客户端标准化提供资源管理、工具注册/执行以及可自定义的提示模板渲染,通过 JSON-RPC 进行通信与协作。

tempo-mcp

基于模型上下文协议(MCP)的服务器端实现,向大型语言模型客户端提供 Tempo 区块链的资源、工具和提示模板,并通过 JSON-RPC 进行交互,支持多传输协议与严格的会话与安全机制。

TIA MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源与工具的托管与管理、Prompt/模板的渲染,以及通过 JSON-RPC 与客户端通信的能力,支持多传输通道如 STDIO、WebSocket 等,帮助 LLM 客户端以标准化方式获取上下文、数据访问和外部功能调用。

YouTube Content Agency MCP 后端集合

基于模型上下文协议(MCP)的后端服务器集合,提供对资源、工具和提示模板的托管与执行,并通过 JSON-RPC 与 MCP 客户端进行通信,支持多种传输方式,适用于为大语言模型(LLM)客户端提供上下文与功能服务的后端架构。仓库内包含 Python 与 TypeScript 实现的多个 MCP 服务器实例及客户端示例,覆盖新闻、YouTube 工具箱、Notion 驱动的框架资源等场景。

AgentPool MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,面向大语言模型客户端提供资源管理、工具注册与执行,以及提示模板的渲染等核心能力,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明及多传输协议(如 Stdio、SSE、WebSocket)以实现安全、可扩展的上下文服务框架。

Trinity MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供资源、工具、提示以及跨代理协作的标准化上下文服务,支持多传输协议、会话与权限管理、以及多代理系统的编排能力。

Stim Model Context Protocol (MCP) 服务器

基于 Model Context Protocol 的后端服务器实现,提供资源与工具的托管、Prompt 模板的渲染,以及通过 JSON-RPC 与 LLM 客户端进行通信的能力,支持标准化的会话管理与多传输通道(如 stdio)。

MCP Forge Python

基于Python实现的生产级模型上下文协议(MCP)服务器模板,提供上下文管理、工具调用和Prompt交互功能,并集成了OAuth 2.0和JWT认证。

MCP 思维工具服务器

基于 MCP 协议,为大型语言模型提供结构化思维空间,增强复杂推理和决策能力。

SQLite MCP Server

通过Model Context Protocol (MCP)标准,允许AI客户端安全、结构化地访问和操作SQLite数据库。

automcp

AutoMCP是一个轻量级、可配置的MCP服务器,支持通过YAML/JSON配置服务和操作,并提供基于标准协议的模型上下文服务。