基于 Model Context Protocol(MCP)的后端服务,为 LLM 客户端(如 Claude)提供统一的上下文服务,包括资源、工具和提示模板的管理;通过 JSON-RPC 进行通信,支持 SSE/stdio 等传输协议,并具备会话管理与认证机制,适合作为法律场景下的上下文与功能后端。
该仓库提供Model Context Protocol (MCP) 服务器开发的全面指南,并包含基于FastMCP框架的Python实现示例,演示如何构建、配置和运行MCP工具服务器。
通过MCP协议为LLM提供访问Contentstack Knowledge Vault及模拟数据的功能工具。
基于OpenAI Agents SDK的MCP示例服务器,提供工具注册和SSE传输功能,演示MCP协议后端实现。
为 Replicate 平台上的 AI 模型提供 MCP 接口的服务器,目前支持通过工具调用 Replicate 的文生图模型。
此仓库是基于FastMCP框架实现的MCP服务器,用于演示如何通过MCP协议访问Clever Cloud文档和相关功能,包括文档资源、实用工具和提示模板。
该项目是一个基于FastMCP框架实现的MCP服务器,旨在通过Replicate API提供图像生成和模型信息查询工具,为LLM客户端提供访问Replicate AI模型能力的标准化接口。