找到 3 个结果
一个基于 Model Context Protocol (MCP) 的完整 MCP 服务器实现,作为后端上下文服务向 LLM 客户端提供资源管理、工具执行和 Prompt 渲染等能力。服务器通过 MCP 标准接口处理来自 LLM 的请求,管理会话与能力声明,并使用 SQLite 持久化资源状态与依赖关系,支持通过 stdio 传输渠道与客户端进行通信,便于在本地或集成开发环境中快速原型与迭代。
通过MCP协议连接大型语言模型客户端与Novita AI平台,实现云端GPU资源管理和自动化操作。
AWS MCP服务器是一个允许 Claude 等 AI 助手通过自然语言与您的 AWS 环境交互的工具。它提供资源查询和管理功能,充当 AI 与 AWS 之间的桥梁。