连接大型语言模型(LLM)与去中心化物理基础设施网络(DePIN),构建可感知现实世界的先进AI代理后端。
基于 MCP 协议为大型语言模型 (LLM) 提供访问 Apache Doris 数据库的工具和上下文信息。
基于Spring AI框架构建的MCP服务器示例,提供图书信息查询工具,支持LLM客户端通过工具调用获取图书数据。
基于Spring Boot和Spring AI MCP框架的SQL服务,提供SQL查询和更新功能,作为AI工具扩展LLM能力。
基于Spring AI MCP Server框架实现的课程信息服务,通过标准化的MCP协议向LLM客户端提供课程数据查询工具。
一个基于 MCP 协议的 SQLite 服务器,提供数据库操作、业务洞察记录和 Prompt 模板功能,通过标准接口与 LLM 客户端交互。
一个基于 Model Context Protocol (MCP) 的服务器,提供生成斐波那契数列的功能,方便 LLM 应用获取数学序列数据。
Coincap MCP服务器是一个基于Model Context Protocol的应用后端,通过工具提供Coincap API的加密货币数据查询功能,供LLM客户端使用。
PolyMarket Predictions MCP Server是一个为LLM应用设计的后端服务,它通过PolyMarket API提供预测市场数据,包括市场信息、实时价格和历史数据查询功能。