项目简介
Gram平台旨在简化Model Context Protocol (MCP) 服务器的构建和运维。它为LLM应用提供了一个统一的控制平面,帮助开发者将现有API转化为可供LLM调用的工具,高效管理数据资源,并灵活定义Prompt模板。通过Gram,您可以轻松部署和维护多个符合MCP规范的服务器实例,赋能更智能、更动态的LLM代理和聊天应用。
主要功能点
- MCP服务器托管与部署: Gram提供一站式服务,允许您轻松部署和托管符合MCP规范的服务器实例,这些服务器能够为LLM客户端提供上下文和功能。
- 工具创建与管理: 支持从OpenAPI 3.0.X和3.1.X规范自动生成LLM可用的工具。您可以组合多个API端点,创建功能更丰富的工具集,供LLM在需要时调用。
- Prompt模板定义与渲染: 平台提供完善的Prompt模板管理功能,您可以创建、编辑和渲染各种Prompt模板,以实现高度定制化的LLM交互模式。
- 上下文数据资源管理: 帮助您托管和管理LLM所需的各种上下文数据资源,确保LLM在执行任务时能获取准确和及时的信息。
- 安全与认证: 内置OAuth支持,包括动态客户端注册(DCR)、自带授权(BYO Authorization)和标准认证流程,确保您的MCP服务器和工具的安全访问。
- 统一控制平面: 提供直观的仪表盘,方便您通过统一界面管理组织内的所有MCP服务器、工具、模板和部署。
安装步骤
Gram平台本身是为托管和管理MCP服务器而设计的云端服务。若您想在本地进行开发或运行Gram的控制平面服务,您需要准备以下环境:
- 安装依赖: 确保您的开发环境中已安装 Docker (用于容器化服务) 和 Mise (一个版本管理器)。
- 启动本地服务: 克隆本项目后,在项目根目录下运行 './zero' 脚本。此脚本将自动化处理所有必要的依赖安装、数据库迁移,并启动包括本地仪表盘在内的所有相关服务。
一旦脚本成功运行,您就可以通过Web浏览器访问Gram的本地仪表盘,开始配置您的MCP服务器。./zero
服务器配置(MCP客户端连接Gram托管服务器的示例)
当您在Gram平台部署了一个MCP服务器实例后,您的LLM客户端需要一些配置信息才能连接并与其通信。以下是一个MCP客户端可能需要配置的JSON格式信息示例:
{ "server_name": "MyAgentContextServer", "description": "连接到Gram平台托管的我的LLM代理上下文服务器", "command": "mcp-client-cli", "args": [ "--server-url", "https://mcp.your-company.com/your-toolset-slug/your-environment-slug", "--api-key", "your-generated-api-key" ], "notes": "请将'https://mcp.your-company.com/your-toolset-slug/your-environment-slug'替换为Gram平台为您分配的MCP服务器URL,并将'your-generated-api-key'替换为您在Gram平台创建的API密钥。" }
- server_name: 您在MCP客户端中为此MCP服务器实例设定的名称。
- description: 对此MCP服务器功能的简要描述。
- command: 您的MCP客户端用于启动与MCP服务器连接的命令行工具名称(例如,'mcp-client-cli')。
- args: 传递给MCP客户端命令的参数列表,用于建立与Gram托管MCP服务器的连接。
- '--server-url': Gram平台为您的MCP服务器实例分配的唯一访问URL。
- '--api-key': 用于验证MCP客户端请求的API密钥,请确保在Gram平台生成并安全保管此密钥。
- notes: 重要的用户提示,指导您如何正确替换配置中的占位符信息。
基本使用方法
- 在Gram平台定义工具: 登录Gram仪表盘,导入您的API的OpenAPI规范,或手动配置API端点,将其转换为LLM可用的工具。
- 创建和组织工具集: 将不同的工具组合成逻辑上的工具集,并为您的LLM应用创建和管理Prompt模板,以指导LLM如何使用这些工具和上下文。
- 部署MCP服务器实例: 选择您希望部署的工具集和目标环境,Gram平台将自动为您配置并启动一个专属的MCP服务器实例。
- 连接LLM客户端: 获取部署后Gram平台提供的MCP服务器URL和API密钥。在您的LLM客户端(如LangChain、OpenAI SDK等)中配置这些信息,使其能够通过JSON-RPC协议连接到您的MCP服务器。
- LLM应用交互: 您的LLM应用现在可以通过MCP服务器访问您定义的工具和上下文资源,执行复杂的代理任务、进行智能问答或实现其他高级交互。
- 监控与优化: 利用Gram平台提供的监控和日志功能,跟踪MCP服务器的性能、工具调用情况和LLM交互模式,以便持续优化您的应用。
信息
分类
AI与计算