使用说明

项目简介

Skynet-MCP 是一个用于构建分层AI代理网络的框架,它基于模型上下文协议(MCP)。该项目同时作为 MCP 服务器和客户端运行,允许代理在网络中提供和使用工具及资源。这种架构支持复杂的任务分解,并能整合各种 AI 能力。

主要功能点

  • 双重 MCP 服务器/客户端模式:既可以作为 MCP 服务器提供工具,也可以作为客户端使用其他 MCP 服务器的工具。
  • LLM 集成:支持 OpenAI 和 Anthropic 的大语言模型,用于构建智能代理。
  • 工具发现:能够自动发现和使用来自连接的 MCP 服务器的工具。
  • 分层代理管理:支持创建和管理父子代理网络。
  • 灵活配置:通过配置文件和环境变量,可以灵活地适应不同的运行环境。

安装步骤

  1. 克隆仓库
    git clone https://github.com/ivo-toby/skynet-mcp.git
  2. 进入项目目录
    cd skynet-mcp
  3. 安装依赖
    npm install

服务器配置

Skynet-MCP 可以作为 MCP 服务器运行,为 MCP 客户端提供工具。以下是一个 MCP 客户端配置示例,用于连接 Skynet-MCP 服务器。

{
  "serverName": "skynet-mcp-server",
  "command": "npm",
  "args": ["start"]
  // "command": "npm start" 将会启动 Skynet-MCP 服务器。
  // 假设服务器的入口文件配置在 package.json 的 "start" 脚本中,
  // 并且服务器默认使用 stdio 传输协议。
}

配置说明

  • 'serverName': 自定义的服务器名称,用于在客户端标识和管理连接。
  • 'command': 运行 MCP 服务器的命令。这里使用 'npm',假设使用 npm 启动服务器。
  • 'args': 传递给 'command' 的参数。这里使用 'start',对应 package.json 中的启动脚本。

注意

  • 上述配置是基于仓库提供的 'npm start' 命令,并且假设服务器默认使用 stdio 协议。
  • 实际配置可能需要根据 Skynet-MCP 服务器的具体启动方式和传输协议进行调整。例如,如果服务器使用 HTTP SSE 协议,则客户端需要配置服务器的 URL。
  • 仓库提供的例子中,'examples/llm-agent-demo.ts' 演示了如何启动一个提供计算器工具的 SSE 服务器,但更基础的 stdio 服务器启动方式可能更适合初次配置。

基本使用方法

完成安装和服务器配置后,您可以:

  1. 启动 Skynet-MCP 服务器:根据服务器配置,使用相应的命令启动服务器。例如,在项目根目录下运行 'npm start' (如果 'package.json' 中配置了启动脚本)。
  2. 配置 MCP 客户端:在 MCP 客户端应用中,根据上述 “服务器配置” 示例,配置连接到 Skynet-MCP 服务器。
  3. 使用工具:客户端连接成功后,可以向 Skynet-MCP 服务器发送 MCP 请求,例如列出可用工具或调用特定工具。仓库中的 'examples' 目录提供了客户端和代理的示例代码,可以参考学习如何与 MCP 服务器交互。

信息

分类

AI与计算