基于 Spring Boot 的 MCP(模型上下文协议)服务器实现示例,提供工具暴露、资源管理与 prompts 渲染等核心能力,支持通过 SSE 进行 JSON-RPC 通信,作为 LLM 客户端的上下文与功能后端。包含 Kotlin 与 Java 两种实现以及可直接运行的服务器启动脚本,适配 Claude Desktop 等 MCP 客户端进行集成测试与演示。
将本地 Ollama API 以工具形式暴露给 Cursor、Claude Desktop 等 LLM 客户端的后端服务,提供模型管理、对话、生成与嵌入等能力的 MCP 服务端实现。
基于 Model Context Protocol(MCP)的后端服务器实现,向 LLM 客户端以标准化的 JSON-RPC 方式暴露资源管理、工具执行以及提示模板的能力,核心通过 registerTool 将大量 Google Workspace 相关操作暴露为可调用的工具集,支持以 Stdio 传输等多种通信方式进行上下文服务与会话管理。
基于 Model Context Protocol (MCP) 的.NET 实现,提供 Tools、Prompts、Resources 的注册与执行,并通过 SignalR 进行与 MCP 客户端的双向通信,支持多传输模式(stdio、http),实现会话管理、能力声明和扩展的 JSON 序列化配置,适合作为本地应用的 MCP 服务器桥接层。
基于模型上下文协议(Model Context Protocol,MCP)的后端示例,封装 Shirtify 代理并通过send_message工具向MCP客户端提供上下文对话能力与外部功能调用,支持 SSE/streamable_http 等传输模式的JSON-RPC风格交互。
基于 Model Context Protocol(MCP)的服务器实现,用于向 LLM 客户端以标准化方式暴露资源、工具以及 Prompt 模板等上下文服务,支持通过多种传输协议与客户端通信,负责会话管理与能力声明,并可与 LangGraph 生态整合进行工具发现与执行。