项目简介
DeFiLlama MCP是一个利用FastMCP框架构建的MCP服务器,旨在将DeFi Llama丰富的 DeFi 数据API封装成标准化的MCP工具, enabling LLM 客户端(如AI Agent)便捷地访问和利用这些数据。它充当了DeFi数据源与AI应用之间的桥梁。
主要功能点
- 获取协议数据: 查询DeFi协议的详细信息,包括总锁仓价值(TVL)。
- 链上数据分析: 检索特定区块链的历史TVL数据,分析其发展趋势。
- 代币价格追踪: 获取各种代币在多条链上的实时价格信息。
- 流动性池数据: 深入了解流动性池的详细指标,如TVL。
- 标准化接口: 通过统一的MCP工具接口,简化与AI系统的集成。
- SSE传输支持: 利用Server-Sent Events (SSE) 传输协议实现实时数据更新。
安装步骤
- 克隆仓库:
git clone https://github.com/demcp/defillama-mcp.git cd defillama-mcp - 本地安装 (推荐使用 uv):
# 创建虚拟环境并安装依赖 uv venv uv pip install -e . # 运行服务器 uv run defillama.py - Docker安装:
# 构建Docker镜像 docker build -t defillama-mcp . # 运行容器 (服务器将在容器内的8080端口监听,并映射到宿主机的8080端口) docker run -p 8080:8080 defillama-mcp
服务器配置
MCP客户端连接此服务器时,需要提供以下配置信息:
{ "server_name": "defillama-mcp", "command": "uv", "args": ["run", "defillama.py"], "transport": "sse", "address": "127.0.0.1", "port": 8080 }
- 'server_name': 服务器的唯一标识符。
- 'command': 启动服务器的可执行命令 (这里使用uv)。
- 'args': 传递给命令的参数 (这里是运行defillama.py脚本)。
- 'transport': 通信协议类型 (这里是Server-Sent Events)。
- 'address': 服务器监听的IP地址 (如果运行在本地,通常是127.0.0.1)。
- 'port': 服务器监听的端口号。
请注意,如果您不使用 'uv' 或以其他方式(如通过Python直接运行)启动服务器,'command' 和 'args' 需要相应修改。Docker方式启动时,MCP客户端通常无需关心内部command/args,只需连接到宿主机映射的地址和端口。
基本使用方法
服务器启动并运行后,任何支持MCP协议的客户端,例如专门的LLM推理框架或AI Agent,可以通过配置上述连接信息,与此DeFiLlama MCP服务器建立连接。建立连接后,客户端可以发现并调用服务器暴露的工具,如 'get_protocol_tvl', 'get_token_prices' 等,并通过这些工具获取DeFi Llama提供的各类数据。例如,一个AI Agent可以调用 'get_protocol_tvl' 工具来查询特定DeFi协议的当前TVL。
信息
分类
AI与计算