使用说明
项目简介
Skynet-MCP 是一个用于构建分层AI代理网络的框架,它基于模型上下文协议(MCP)。该项目同时作为 MCP 服务器和客户端运行,允许代理在网络中提供和使用工具及资源。这种架构支持复杂的任务分解,并能整合各种 AI 能力。
主要功能点
- 双重 MCP 服务器/客户端模式:既可以作为 MCP 服务器提供工具,也可以作为客户端使用其他 MCP 服务器的工具。
- LLM 集成:支持 OpenAI 和 Anthropic 的大语言模型,用于构建智能代理。
- 工具发现:能够自动发现和使用来自连接的 MCP 服务器的工具。
- 分层代理管理:支持创建和管理父子代理网络。
- 灵活配置:通过配置文件和环境变量,可以灵活地适应不同的运行环境。
安装步骤
- 克隆仓库
git clone https://github.com/ivo-toby/skynet-mcp.git - 进入项目目录
cd skynet-mcp - 安装依赖
npm install
服务器配置
Skynet-MCP 可以作为 MCP 服务器运行,为 MCP 客户端提供工具。以下是一个 MCP 客户端配置示例,用于连接 Skynet-MCP 服务器。
{ "serverName": "skynet-mcp-server", "command": "npm", "args": ["start"] // "command": "npm start" 将会启动 Skynet-MCP 服务器。 // 假设服务器的入口文件配置在 package.json 的 "start" 脚本中, // 并且服务器默认使用 stdio 传输协议。 }
配置说明:
- 'serverName': 自定义的服务器名称,用于在客户端标识和管理连接。
- 'command': 运行 MCP 服务器的命令。这里使用 'npm',假设使用 npm 启动服务器。
- 'args': 传递给 'command' 的参数。这里使用 'start',对应 package.json 中的启动脚本。
注意:
- 上述配置是基于仓库提供的 'npm start' 命令,并且假设服务器默认使用 stdio 协议。
- 实际配置可能需要根据 Skynet-MCP 服务器的具体启动方式和传输协议进行调整。例如,如果服务器使用 HTTP SSE 协议,则客户端需要配置服务器的 URL。
- 仓库提供的例子中,'examples/llm-agent-demo.ts' 演示了如何启动一个提供计算器工具的 SSE 服务器,但更基础的 stdio 服务器启动方式可能更适合初次配置。
基本使用方法
完成安装和服务器配置后,您可以:
- 启动 Skynet-MCP 服务器:根据服务器配置,使用相应的命令启动服务器。例如,在项目根目录下运行 'npm start' (如果 'package.json' 中配置了启动脚本)。
- 配置 MCP 客户端:在 MCP 客户端应用中,根据上述 “服务器配置” 示例,配置连接到 Skynet-MCP 服务器。
- 使用工具:客户端连接成功后,可以向 Skynet-MCP 服务器发送 MCP 请求,例如列出可用工具或调用特定工具。仓库中的 'examples' 目录提供了客户端和代理的示例代码,可以参考学习如何与 MCP 服务器交互。
信息
分类
AI与计算