使用说明(Markdown 格式)
-
项目简介
- 这是一个Go语言实现的MCP服务器框架,旨在为LLM客户端提供标准化的上下文服务。核心能力包括资源(Resources)的托管与访问、工具(Tools)的注册与执行、以及Prompt模板的定义与渲染。服务器通过多协议通信(HTTP、SSE、stdio 等)与客户端进行数据交互,支持会话管理、能力声明,并实现面向多服务器的上下文服务框架。
-
主要功能点
- 资源管理:集中托管和提供对资源的访问能力,便于LLM在对话中查询、取用上下文信息。
- 工具注册与执行:允许注册外部工具,并通过服务器/托管工具执行外部功能,支持多种工具执行模式。
- Prompt 模板渲染:定义并渲染可定制的 Prompt 模板,支持多种LLM交互模式。
- 跨服务器上下文:面向12+ MCP 服务器的跨服务上下文服务,实现会话管理与能力声明。
- 多传输协议:支持HTTP、SSE、stdio等传输协议,提供灵活的通信方式。
- 安全与可扩展性:包含日志、监控、缓存、权限控制等机制,便于企业级AI工作流落地。
-
安装与部署
- 克隆仓库
- git clone https://github.com/manishiitg/mcp-agent-builder-go.git
- 进入仓库目录
- 依赖与构建
- 需要Go 1.24.4 及以上版本
- go mod download
- 编译服务端核心组件(示例,实际可结合docker-compose运行):
- go build ./agent_go
- 如使用前端/完整栈部署,参考仓库提供的Docker Compose快速启动。
- 运行与测试
- 使用Docker Compose快速启动(推荐)
- docker-compose up -d
- 访问前端: http://localhost:5173
- 访问API服务: http://localhost:8000
- 也可按仓库README 的 Quick Start 手动构建与启动
- 使用Docker Compose快速启动(推荐)
- 配置
- MCP 服务器配置需提供服务器名称、启动命令及参数等信息,确保 MCP 客户端能够与服务器建立连接并读取能力。
- 克隆仓库
-
服务器配置示例(MCP 客户端需要的启动信息,JSON 格式,示例中仅列出必要字段,实际使用请根据本仓库的实现进行调整) { "mcpServers": { "fileserver": { "description": "Workspace file server for MCP", "protocol": "stdio", "command": "./path/to/your-file-server-binary", "args": [] }, "workflow-registry": { "description": "Workflow tool registry server", "protocol": "http", "url": "http://localhost:8080/registry" } } } 注释说明
- mcpServers:服务器集合,键为服务器名称;值包含描述、传输协议、启动命令和参数等信息。
- protocol:服务器的通信协议类型,常见的有 stdio、sse、http。
- command/args:启动服务器的可执行命令及其参数(仅对本地stdio类型服务器有效)。
- url(如使用远程HTTP服务器):远程服务的地址。
- 以上示例仅作说明,实际配置需要结合仓库中的实现细节与运行环境。
-
基本使用方法
- 启动与开发
- 直接使用Docker Compose快速部署整套(前端+API+Planner+数据库等)。
- 或按仓库中的指引逐步在本地构建与启动后端服务(agent_go),再启动前端与相关组件。
- 常用操作
- 部署后,通过前端发起查询或调用工具,后端将按MCP协议处理请求,返回JSON格式的响应。
- 可以通过配置文件添加/修改 MCP 服务器,实现对多服务器的协同上下文服务。
- 启动与开发
-
运行依赖与环境变量
- OpenAI、Bedrock、Langfuse 等提供方 API Key 需以环境变量形式提供(如 OPENAI_API_KEY)。
- 按需配置本仓库中的.env 模板,并根据实际部署环境设置所需变量。
- 各子系统(前端、后端、计划器、缓存、观察者等)之间的通信将基于配置文件中的 MCP 服务器信息建立。
-
备注
- 本仓库包含丰富的服务端实现、工具、以及前端组件,旨在构建一个可扩展的MCP服务器生态。实际生产环境部署请结合具体需求、依赖版本以及安全策略进行定制化配置。
信息
分类
AI与计算