← 返回首页

"模型上下文服务"标签的搜索结果

找到 12 个结果

Claude Cognitive MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,为 LLM 客户端提供资源管理、工具注册与执行、以及可自定义的 Prompt 模板渲染等上下文服务,支持 JSON-RPC 通信及多传输协议(如 STDIO、HTTP/SSE/WebSocket)以实现安全、可扩展的后端上下文服务。

Katana MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及提示模板渲染等能力,通过 JSON-RPC 与客户端通信,支撑 LLM 应用的上下文与功能服务。

GoodVibes MCP 服务端插件集合

一个基于 Model Context Protocol 的多引擎 MCP 服务器集合,提供统一的资源管理、工具注册与执行、以及 Prompt 模板渲染等能力。通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及可扩展的传输协议(如标准输入输出、Server-Sent Events、WebSocket 等)。仓库中包含多个独立的 MCP 服务器实现(前端分析引擎、项目工程引擎、精密引擎、批处理引擎等),形成一个对话式、可扩展的后端上下文服务框架,供 LLM 客户端按需调用。

Google Workspace MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,向 LLM 客户端以标准化的 JSON-RPC 方式暴露资源管理、工具执行以及提示模板的能力,核心通过 registerTool 将大量 Google Workspace 相关操作暴露为可调用的工具集,支持以 Stdio 传输等多种通信方式进行上下文服务与会话管理。

Epicflare MCP 服务端实现

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源托管、工具注册与执行、以及提示模板渲染等核心能力,并通过 JSON-RPC 与 LLM 客户端进行上下文与功能交互,部署在 Cloudflare Workers 中以实现安全、可扩展的上下文服务。

kubectl-mtv MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器,作为与大语言模型(LLM)客户端的标准化上下文服务入口,提供资源管理、工具注册/执行以及提示模板的渲染能力,支持 JSON-RPC 交互与多种传输模式(如 stdin/stdout、SSE、WebSocket),并具备会话管理、能力声明和动态工具发现等特性。该服务器以 kubectl-mtv 项目内的实现为基础,能够与客户端通过 JSON-RPC 请求交互,提供迁移相关的资源、工具及提示信息的上下文服务。

Griffin API MCP服务器

基于 Model Context Protocol (MCP) 的后端服务,向大型语言模型(LLM)客户端提供 Griffin API 的资源、工具和提示模板,并通过 JSON-RPC 进行交互,支持 STDIO 传输等多种传输方式,帮助在对话中访问和操作银行相关数据。

f5xc-api-mcp

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与提示模板渲染等能力,供 LLM 客户端以标准化方式获取上下文信息和外部功能访问。

Vibe Kanban MCP 任务服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供可供大模型(LLM)客户端查询的任务、仓库、项目等上下文与执行能力,通过 JSON-RPC 风格的 MCP 通信,将后端数据与功能暴露给 LLM 客户端使用,并支持通过标准的 MCP 服务器接口执行工具与任务流程。

MCP 服务器示例与工具/资源整合演示(Model Context Protocol 服务端)

基于 Model Context Protocol(MCP)的服务器端实现示例集合,展示如何暴露工具、资源与 Prompt 模板,并通过 JSON-RPC 与客户端进行通信,涵盖多种 MCP 服务端实现与用法,适合作为后端上下文服务的参考实现。

CustomGPT 模型上下文协议服务器

一个功能全面的模型上下文协议 (MCP) 服务器,通过标准化接口,让大型语言模型 (LLM) 客户端能够无缝访问和管理 CustomGPT 智能体及其数据。

MCP客户端-服务器示例

一个最简化示例,展示如何基于MCP框架构建支持工具调用的服务器及对应的客户端。