找到 3 个结果
基于 MCP 协议的后端服务,提供资源、工具、提示模板等的托管、注册、执行与渲染,通过 JSON-RPC 与 LLM 客户端通信,当前实现支持基于标准输入输出的简单传输模式,便于与模型对话系统进行上下文服务和功能调用协作。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源索引查询、工具调用与提示渲染能力;通过 JSON-RPC(以标准输入输出传输)与客户端进行通信,支持会话管理、能力声明和简单的状态监控,便于将本地代码库上下文提供给大语言模型客户端使用。
通过MCP协议为LLM提供Nebula Block GPU资源信息和查询工具。