基于 Model Context Protocol(MCP)的后端服务实现,提供资源与工具的注册与管理、集成管理、OAuth 授权流以及面向 LLM 客户端的上下文与能力服务,支持多提供商体系与可扩展的服务器端特性。
基于 Hadoop JobHistory Server REST API 的 MCP 服务器实现,向大语言模型(LLM)客户端提供作业历史查询、任务与日志获取等工具,支持本地 STDIO 和 HTTP 传输模式,便于将 Hadoop 作业数据以标准化的 MCP 形式暴露给 AI 助手。
基于 Model Context Protocol (MCP) 的后端服务端实现,面向大模型客户端提供 Rancher 多集群管理的资源访问、工具执行与提示模板渲染,通过 JSON-RPC 与客户端通信,支持 stdio、HTTP/SSE 等传输模式,提供可扩展的上下文和能力服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,向大语言模型客户端以标准化方式提供 GitHub Actions 的上下文信息、工具和提示模板,并通过 JSON-RPC 与客户端通信,支持以 Stdio 传输模式运行,便于在 Claude Desktop 等环境中集成使用。
一个将 LangChain 代理与 MCP 服务器整合的后端平台,包含可运行的 MCP 服务器示例(Mock),用于向大模型客户端提供资源、工具和提示模板等上下文信息,并提供完整的服务端框架以注册、管理 MCP 服务器和工具权限,支持实时通信与安全认证等能力。