项目简介

Quicksilver 是一个开源框架,旨在将大型语言模型 (LLM) 的推理能力与去中心化物理基础设施网络 (DePIN) 的实时数据和交互能力结合起来,从而构建能够感知物理世界、收集数据并基于上下文做出响应的 AI 代理。它作为一个应用后端,为 LLM 客户端提供必要的上下文信息和功能。

主要功能点

  • 工作流编排: 管理复杂的任务流程,协调 LLM、外部工具和记忆模块的交互。
  • LLM 集成: 支持多种流行的 LLM 提供商,用于理解和生成文本。
  • 上下文记忆: 在不同交互回合中维护会话状态和上下文。
  • 内置工具: 提供与 DePIN 项目、第三方 API(如天气、能源、新闻、区块链数据等)交互的能力。
  • 模块化架构: 易于扩展,可集成新的工具和工作流。
  • MCP 支持: 实现 Model Context Protocol (MCP),通过标准化方式为 LLM 客户端提供工具调用、数据访问等服务。

安装步骤

  1. 安装必备条件: 确保已安装 Node.js (v22 或更高版本) 和 bun
  2. 克隆仓库:
    git clone https://github.com/iotexproject/quicksilver.git
    cd quicksilver
  3. 安装依赖:
    bun i
  4. 配置环境变量: 创建 '.env' 文件(可参考 '.env.template'),配置所需的 API 密钥,特别是 LLM 提供商密钥和启用的工具所需的密钥。例如:
    OPENAI_API_KEY=your_openai_api_key
    NUBILA_API_KEY=your_nubila_api_key
    ENABLED_TOOLS=weather-current,calculator
    FAST_LLM_MODEL=gpt-4o-mini
    LLM_MODEL=gpt-4o
  5. 启用 MCP 模式工具: 在 '.env' 文件中设置 'ENABLED_TOOLS' 环境变量,指定希望通过 MCP 暴露给客户端的工具列表(逗号分隔)。

服务器配置(供MCP客户端连接)

Quicksilver 可以作为 MCP 服务器运行,供兼容的 LLM 客户端连接和使用其提供的工具和能力。

当您通过 'bun run start:mcp' 命令启动 Quicksilver 并进入 MCP 兼容模式时,它会默认在 3000 端口 监听连接,并通过 Server-Sent Events (SSE) 协议在 /sse 路径提供服务。该 MCP 服务器在协议中声明的默认名称为 'askSentientAI' (您可以在 'mcpServer.ts' 文件中找到此名称)。

MCP 客户端(如 Eliza)需要以下信息来连接到此 Quicksilver MCP 服务器:

  • 服务器名称 (Server Name): 'askSentientAI'
  • 传输协议 (Transport Protocol): SSE
  • 连接地址 (URL): 'http://<您的服务器地址或IP>:3000/sse'
  • 消息发送路径 (Message Path): '/messages' (通过 URL 参数传递 SSE 会话ID)

请根据您部署 Quicksilver 的实际服务器地址和端口,在您的 MCP 客户端配置中填写相应的 URL。

基本使用方法

启动 Quicksilver MCP 服务器:

bun run start:mcp

这将在默认端口 (3000) 启动 MCP 兼容模式的服务器。一旦服务器运行,您可以使用兼容 MCP 协议的 LLM 客户端连接到 'http://<您的服务器地址>:3000/sse' 端点,并开始与服务器交互,调用其暴露的工具。请注意,在 MCP 模式下,原有的 '/ask', '/stream', '/raw' 等 REST API 端点将不可用。

信息

分类

AI与计算