找到 3 个结果
基于模型上下文协议(MCP)的后端服务器,用于向 LLM 客户端暴露资源、工具和模板等上下文信息,并通过多传输协议与客户端通信,专为 Claude Code 的 Kimi 集成场景提供可扩展的上下文服务。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、Prompt 模板渲染等核心能力,通过 JSON-RPC 与客户端通信,并支持多种传输方式(如 Stdio、SSE、WebSocket)以构建面向 LLM 的上下文服务框架。
一个可扩展的、多租户模型上下文协议(MCP)服务器平台,集成了OAuth认证和可插拔的连接器,为LLM应用提供丰富的上下文服务和工具调用能力。