使用说明

项目简介

DeFiLlama MCP 是一个利用 FastMCP 框架构建的微服务,它封装了 DeFi Llama 的 API,将丰富的 DeFi 数据转换成可供大型语言模型 (LLM) 和其他 AI 应用调用的工具接口。它帮助 AI 系统无需处理复杂的 API 细节,即可轻松获取协议 TVL、链上数据、代币价格等信息。

主要功能点

  • 获取协议信息: 检索主流 DeFi 协议列表及其总锁定价值 (TVL) 等信息。
  • 查询协议 TVL: 获取特定 DeFi 协议在不同区块链上的当前 TVL 数据。
  • 分析链上 TVL: 检索特定区块链的历史 TVL 数据,用于分析趋势和增长。
  • 追踪代币价格: 获取指定加密货币代币在不同链上的实时价格信息。
  • 了解流动性池: 获取流动性池列表及其详细指标,如 TVL。
  • 标准化接口: 所有数据通过一致的工具接口模式提供给 AI 应用。

安装步骤

前提条件:

  • Python 3.13 或更高版本
  • 推荐使用 'uv' (Python 包安装及环境管理工具)

方法一:本地安装

  1. 克隆仓库:
    git clone https://github.com/demcp/defillama-mcp.git
    cd defillama-mcp
  2. 创建并激活虚拟环境,安装依赖:
    uv venv
    uv pip install -e .
  3. 运行服务器:
    uv run defillama.py

方法二:Docker 安装

  1. 克隆仓库:
    git clone https://github.com/demcp/defillama-mcp.git
    cd defillama-mcp
  2. 构建 Docker 镜像:
    docker build -t defillama-mcp .
  3. 运行容器 (将服务器端口映射到宿主机):
    docker run -p 8080:8080 defillama-mcp

服务器配置

MCP 客户端需要以下配置信息来连接 DeFiLlama MCP 服务器。这些信息通常在客户端的配置文件中设置,以便客户端能够找到并启动或连接到服务器进程:

{
  "server_name": "defillama-mcp",
  "command": "uv",
  "args": ["run", "defillama.py"],
  "cwd": "/path/to/your/defillama-mcp/repository"
  // 如果使用 Docker 运行,配置方式可能会不同,通常只需提供服务器暴露的 HTTP 或 SSE URL。
  // 上述 "command", "args", "cwd" 适用于本地直接通过命令行启动服务器的情况。
}
  • 'server_name': 服务器的唯一标识名称。
  • 'command': 启动 MCP 服务器进程的命令(例如 'uv')。
  • 'args': 传递给启动命令的参数列表(例如 '["run", "defillama.py"]')。
  • 'cwd': 启动命令执行时所在的工作目录,应指向您克隆的 'defillama-mcp' 仓库目录。

基本使用方法

一旦 DeFiLlama MCP 服务器成功运行(无论是本地还是 Docker),AI 应用(例如基于 LangChain、Autogen 或其他支持 MCP 的框架构建的智能体)就可以通过配置连接到该服务器。AI 智能体可以通过识别服务器声明的能力(即暴露的工具名称和描述)来调用相应的工具获取数据。

例如,一个 AI 智能体想要知道某个协议的 TVL,它会识别到 'get_protocol_tvl' 这个工具及其功能描述,然后构建一个包含协议名称作为参数的请求,发送给 DeFiLlama MCP 服务器。服务器接收请求,调用内部逻辑(即对应的 Python 函数),向 DeFi Llama API 发起请求,获取数据,并将结构化的结果返回给 AI 智能体。整个过程对 AI 智能体来说是标准化的工具调用,无需了解底层 API 的细节。

信息

分类

网页与API