← 返回首页

"模型上下文"标签的搜索结果

找到 25 个结果

Koder MCP后端服务器实现

基于 Model Context Protocol (MCP) 的后端服务,集成资源管理、工具注册与执行、以及提示模板渲染等能力,并通过 JSON-RPC 与 LLM 客户端通信,支持多种传输方式(stdio、SSE、HTTP)以提供可扩展的上下文服务框架。

Echo Noise MCP 服务端实现

基于模型上下文协议(MCP)的后端实现,提供资源、工具与 Prompt 的管理与渲染,通过 JSON-RPC 与 LLM 客户端进行通信,支持多传输模式(如 Stdio、SSE、WebSocket)以及会话与能力声明,并可通过 MCP 客户端接入扩展能力。该仓库在后端 Go 语言实现了核心服务,并在 README 提供了配套的 MCP 客户端服务(MCP 服务器端 bundles/示例及接入文档)。

Skrills MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源托管与访问、工具注册与执行、以及提示模板渲染等能力,并通过 JSON-RPC 进行与 LLM 客户端的通信,支持多传输协议用于上下文服务的扩展性。

NTS_MCP_FS 服务器端

基于模型上下文协议(MCP)的企业级后端服务器实现,提供资源管理、工具注册与执行、提示模板渲染等 MCP 服务,通过 JSON-RPC 风格与 LLM 客户端通信,支持会话隔离、能力声明以及多传输协议的上下文服务框架。

UDS-POS MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,提供标准化的资源(Resources)、工具(Tools)以及提示模板(Prompts),通过 JSON-RPC 与 LLM 客户端通信,支持多传输通道并对接 Supabase 数据源,构建面向 AI 赋能的上下文服务框架。该仓库包含一个完整的 MCP 服务器实现(含工具定义、资源暴露、提示模板以及 Prompt 执行逻辑),并以 Stdio 传输方式提供服务入口。

Docmost MCP Bridge 与 MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现与桥接组件,允许 LM 模型/代理通过标准 JSON-RPC 方式读取资源、调用工具、获取与渲染 Prompt 模板等,核心包含一个可运行的 MCP 服务端以及将 Cursor 等客户端接入 Docmost 的桥接层。

Claude Swarm MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,用于托管资源、注册与执行工具、渲染 prompts,并通过 JSON-RPC/事件流等协议为 LLM 客户端提供标准化的上下文服务与能力扩展。

Singular Blockly Model Context Server

基于 Model Context Protocol (MCP) 的后端服务器,为 LLM 客户端提供可管理的资源、可注册的工具和可渲染的 Prompt 模板,通过 JSON-RPC 进行通信,支持多种传输协议(如 Stdio、SSE、WebSocket),并实现会话管理与能力声明等功能。

AICode-MCP 服务端核心

基于 Model Context Protocol (MCP) 的服务器端实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等能力;通过 JSON-RPC 形式与客户端通信,支持多传输协议(StdIO、HTTP、SSE)以向大型语言模型(LLM)客户端提供上下文信息与功能,便于搭建可扩展的 MCC(MCP)后端服务。

Perplexity WebUI MCP 服务端

基于 Model Context Protocol (MCP) 的 MCP 服务器实现,暴露 Perplexity WebUI 的查询能力给大语言模型客户端,通过 FastMCP 提供工具接口,支持会话、模型映射与网页检索等能力。

Super AI Plugin Hub

基于 Model Context Protocol (MCP) 的服务器端框架,聚合、管理资源与工具,并通过 JSON-RPC 将上下文、工具与提示暴露给 LLM 客户端,同时支持本地与远程 MCP 服务器的代理与协作。

TradeArena 模型上下文服务端 (MCP风格后端)

基于 Model Context Protocol 的 MCP-like 服务器实现,提供资源、工具和提示模板等上下文服务,供大语言模型(LLM)客户端以标准化 JSON-RPC 方式读取资源、执行工具、渲染提示等能力,并通过 Sui 区块链进行交易签名与记录。该仓库实现了完整的服务端代码及多类别工具集,支持本地 stdio 传输测试。

clai MCP 服务器框架

基于 Model Context Protocol (MCP) 的服务器框架,提供对 MCP 请求/响应的处理能力、资源与工具注册管理,以及通过 JSON-RPC 与客户端进行通信的多进程服务器支持与会话管理。

MCP Outlet – 通用 MCP 服务器运行时与沙箱代理

基于 Model Context Protocol (MCP) 的后端运行时与代理,提供资源、工具和提示的统一管理,并通过 JSON-RPC 与 MCP 客户端通信,支持多传输协议(stdio、SSE、WebSocket)等,能够在沙箱中运行并托管任意 MCP 兼容的服务器。*

Dingo MCP Server

基于模型上下文协议(MCP)的后端服务器,向LLM客户端标准化提供资源管理、工具注册/执行以及可自定义的提示模板渲染,通过 JSON-RPC 进行通信与协作。

tempo-mcp

基于模型上下文协议(MCP)的服务器端实现,向大型语言模型客户端提供 Tempo 区块链的资源、工具和提示模板,并通过 JSON-RPC 进行交互,支持多传输协议与严格的会话与安全机制。

TIA MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源与工具的托管与管理、Prompt/模板的渲染,以及通过 JSON-RPC 与客户端通信的能力,支持多传输通道如 STDIO、WebSocket 等,帮助 LLM 客户端以标准化方式获取上下文、数据访问和外部功能调用。

YouTube Content Agency MCP 后端集合

基于模型上下文协议(MCP)的后端服务器集合,提供对资源、工具和提示模板的托管与执行,并通过 JSON-RPC 与 MCP 客户端进行通信,支持多种传输方式,适用于为大语言模型(LLM)客户端提供上下文与功能服务的后端架构。仓库内包含 Python 与 TypeScript 实现的多个 MCP 服务器实例及客户端示例,覆盖新闻、YouTube 工具箱、Notion 驱动的框架资源等场景。

AgentPool MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,面向大语言模型客户端提供资源管理、工具注册与执行,以及提示模板的渲染等核心能力,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明及多传输协议(如 Stdio、SSE、WebSocket)以实现安全、可扩展的上下文服务框架。

Trinity MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供资源、工具、提示以及跨代理协作的标准化上下文服务,支持多传输协议、会话与权限管理、以及多代理系统的编排能力。

Stim Model Context Protocol (MCP) 服务器

基于 Model Context Protocol 的后端服务器实现,提供资源与工具的托管、Prompt 模板的渲染,以及通过 JSON-RPC 与 LLM 客户端进行通信的能力,支持标准化的会话管理与多传输通道(如 stdio)。

MCP Forge Python

基于Python实现的生产级模型上下文协议(MCP)服务器模板,提供上下文管理、工具调用和Prompt交互功能,并集成了OAuth 2.0和JWT认证。

MCP 思维工具服务器

基于 MCP 协议,为大型语言模型提供结构化思维空间,增强复杂推理和决策能力。

SQLite MCP Server

通过Model Context Protocol (MCP)标准,允许AI客户端安全、结构化地访问和操作SQLite数据库。

automcp

AutoMCP是一个轻量级、可配置的MCP服务器,支持通过YAML/JSON配置服务和操作,并提供基于标准协议的模型上下文服务。