Official

官方 MCP

AI与计算

Sequential Thinking

一个基于模型上下文协议(MCP)实现的序贯思维服务器,用于结构化地处理和分析用户输入的思考步骤,支持阶段划分、评分、标记和总结,以增强问题解决和决策过程。

网页与API

Alphavantage

Alphavantage MCP服务器为LLM客户端提供股票市场数据API访问工具,支持实时行情、历史数据、财经新闻和技术指标查询。

数据库与文件

Neon MCP Server

基于Cloudflare Workers构建的轻量级MCP服务器,集成Neon REST API,提供项目和分支管理工具,方便Cursor等客户端使用。

网页与API

FireCrawl MCP Server

FireCrawl MCP Server是一个MCP服务器,集成了FireCrawl网络抓取能力,为LLM应用提供网页内容抓取、数据提取和网络搜索等工具。

网页与API

Google Maps

Google Maps MCP 服务器提供地理编码、地点搜索、路线规划等地图相关的工具,使LLM能够查询和利用地理位置信息。

数据库与文件

Redis

Redis MCP Server: 通过MCP协议将Redis数据库功能作为资源和工具提供给LLM,实现上下文信息的获取和数据操作。

数据库与文件

PostgreSQL

PostgreSQL MCP Server扩展了基础功能,使LLM能够通过Claude Desktop创建、读取、更新、删除PostgreSQL数据库中的表和数据,并执行SQL查询。

数据库与文件

Filesystem

Filesystem MCP服务器提供文件读写、目录管理等文件系统操作工具,使LLM能够安全访问和操作本地文件系统。

网页与API

Puppeteer

基于 Puppeteer 的 MCP 服务器,提供网页自动化能力,例如导航、截图、点击和表单操作,扩展 LLM 的 Web 交互功能。

网页与API

Time

提供当前时间的MCP服务器,支持获取指定时区的时间,并可通过 Prompt 模板与 LLM 交互获取时间信息。

数据库与文件

MCP Server for Milvus

为LLM应用提供Milvus向量数据库访问能力的MCP服务器,支持向量检索、数据管理和集合操作等功能。

网页与API

AgentQL MCP Server

AgentQL MCP Server是一个基于Model Context Protocol的服务器,集成了AgentQL的数据提取能力,为LLM应用提供网页数据抓取工具。

AI与计算

MCP Advisor

提供MCP服务器发现与推荐服务的应用后端,帮助AI助手通过自然语言查询查找和利用其他MCP服务器工具。

最近更新

9 / 11506
AI与计算

EPLAN MCP 服务器 - 模型上下文协作后端

基于 Model Context Protocol (MCP) 的后端服务器,实现对 EPLAN 自动化的资源、工具和提示模板的托管与执行。通过 JSON-RPC 风格的 MCP 接口与客户端通信,支持多种传输协议(StdIO、SSE、HTTP),为 LLM 客户端提供安全、可扩展的上下文服务与工具执行能力。

AI与计算

Claude Code Starter Kit MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,暴露 Claude Code Starter Kit 的命令与代理为可通过 JSON-RPC 调用的工具,供 MCP 客户端集成使用。

开发者工具

Unity Agent Bridge MCP Server

基于 Model Context Protocol (MCP) 的 Unity 编辑器后端实现,提供资源与工具管理、提示模板渲染等能力,并通过 MCP 标准协议(JSON-RPC 形式的输入输出)与客户端通信,支持多种传输(此实现基于 stdio 传输)以向 LLM 客户端提供一致的上下文服务。

AI与计算

succ MCP 服务器实现

基于 Model Context Protocol(MCP)的完整服务器实现,提供资源、工具、提示模板等的标准化后端服务,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多种传输方式。

网页与API

VerifiMind-PEAS MCP Server

基于 Model Context Protocol 的 VerifiMind-PEAS MCP 服务器实现,提供 X-Z-CS RefleXion Trinity 的多模型评审、资源与工具管理,并通过 JSON-RPC 的 MCP 协议与客户端通信。

AI与计算

Turbo EA MCP Server

基于 Model Context Protocol 的后端服务,提供对 Turbo EA 数据的只读访问、资源与工具注册与执行,以及 Prompt 模板定义与渲染,供大语言模型以标准化的 JSON-RPC 方式查询和调用。该仓库实现了一个可运行的 MCP 服务器,包含 OAuth/SSO 集成、REST 风格资源与工具的实现,以及用于 AI 客户端的 Prompts 定义与渲染能力,支持本地测试(stdio 模式)与容器化部署。

网页与API

GTI 威胁情报 MCP 服务器(独立版)

基于 Model Context Protocol 的独立版 MCP 服务器,提供对威胁情报资源、工具和提示模板的标准化访问,允许本地开发和云端部署的 LLM 客户端通过 JSON-RPC/SSE 等传输方式获取上下文信息与外部功能。

AI与计算

0nMCP — 基于 MCP 的通用 AI API 编排服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源/工具/提示模板的统一管理与暴露,通过 JSON-RPC 与 LLM 客户端通信,支持本地运行、HTTP API 与多传输协议(如 stdio、SSE、WebSocket),实现本地化的 API 编排、任务执行和对话式上下文服务。

商业系统

Harold Memory Sync MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,用于 Harold 的知识管理与任务协同。该服务器实现了多项工具(如记忆日志、事实库、警报、阻塞、事件、CRM 互动与任务等),通过符合 MCP 的 JSON-RPC 风格接口暴露资源、工具执行和提示渲染能力,支持 STDIO 传输以便与客户端 LLM 会话进行交互,并集成 Supabase 作为 CRM 数据源,提供会话、关系管理与异步同步能力。