← 返回首页

"上下文服务"标签的搜索结果

找到 1063 个结果

PersonalOS: AI驱动的任务与CRM管理MCP服务器

为AI助手提供智能任务管理、CRM功能和上下文信息,支持任务去重、优先级排序和目标引导。

SolvaPay MCP 付费任务管理服务 (示例)

一个基于Model Context Protocol (MCP) 实现的服务器,提供带支付墙保护的基础任务管理工具,支持按使用量计费。

Weave MCP 服务端

基于Model Context Protocol (MCP) 的矢量数据库服务端,提供丰富的集合与文档管理工具,支持Weaviate、Milvus等数据库。

Timestep AI MCP服务器

一个基于Model Context Protocol (MCP) 的生产级AI代理平台,提供可扩展的工具执行能力和上下文服务。

Orchestr8 - AI软件工程协同服务器

Orchestr8是一个基于Rust和DuckDB构建的MCP服务器,为LLM提供企业级AI软件工程代理的发现、管理和执行能力。

MCPKit:AI驱动的Web自动化服务器生成器

MCPKit是一个命令行工具,通过AI能力自动生成基于Model Context Protocol (MCP) 的服务器,赋能大型语言模型(LLM)与任何网站进行高级Web自动化交互。

OCM MCP服务器(EV充电)

该MCP服务器为LLM客户端提供访问Open Charge Map (OCM) EV充电站数据和功能的标准化接口。

Seclab Taskflow Agent

一个MCP赋能的多智能体框架,内置CodeQL、内存缓存等MCP服务器,支持可脚本化的智能体工作流,用于安全研究和漏洞分类。

Watercooler Cloud

Watercooler Cloud是一个基于Model Context Protocol (MCP) 的服务器,为AI代理提供文件协作和上下文管理能力,促进智能代码项目中的多智能体协作。

PageSpace Desktop MCP 服务管理器

PageSpace Desktop提供本地MCP服务器管理和远程WebSocket访问能力,让AI客户端可安全调用用户本地的工具与资源。

Pixeltable MCP 示例服务器

一个基于 Model Context Protocol (MCP) 的轻量级示例服务器,展示了如何注册和调用自定义工具,用于与LLM客户端交互。

Artinet SDK

Artinet SDK 是一个TypeScript库,提供了构建Agentic Communication的AI Agent,并支持将其作为Model Context Protocol (MCP) 服务器向LLM客户端提供上下文信息和功能。

Hector AI 代理平台

一个基于 Go 语言构建的、A2A 协议原生、声明式配置的 AI 代理平台,支持多代理编排、工具集成、内存管理和 JSON-RPC 通信。

Mothership MCP运行时上下文服务器

Mothership MCP服务器提供工作区元数据服务,通过MCP协议向LLM客户端暴露资源、工具和Prompt,实现上下文信息和功能访问。

ComputeMate AI MCP 服务器

ComputeMate AI 提供一个基于MCP协议的后端服务,托管并管理丰富的功能工具和设备信息,赋能LLM客户端执行自动化任务。

Kortx (Model Context Protocol Server)

Kortx是一个轻量级的MCP服务器,为LLM客户端提供丰富的上下文信息、多种AI模型(OpenAI GPT-5、Perplexity Sonar等)的工具调用能力,支持代码辅驾和通用咨询任务。

Firebase CLI 和 MCP 服务器

官方 Firebase 命令行工具 (CLI) 集成了 MCP 服务器,提供标准化的上下文服务,支持 LLM 客户端访问 Firebase 资源、调用工具和渲染 Prompt 模板。

LangChain4j MCP服务器开发模板

基于LangChain4j和Spring Boot,提供构建Model Context Protocol (MCP) 服务器的完整模板,支持资源、工具及Prompt模板的托管与管理。

NVIDIA NeMo Agent Toolkit

灵活的NVIDIA NeMo Agent Toolkit,能够连接企业级代理与各类数据源和工具,并通过Model Context Protocol (MCP) 发布这些能力,使其成为可扩展的MCP服务器。

Doughnut AI知识管理服务器

为大型语言模型(LLM)提供个人知识管理(PKM)上下文和工具的MCP服务器实现。

DhiMCP服务器

基于FastMCP框架构建的MCP服务器示例,提供Docker Hardened Image的迁移信息工具。

Odoo智能AI上下文协议服务

将Odoo的功能和数据通过Model Context Protocol (MCP) 标准暴露给大型语言模型(LLM),实现AI驱动的业务流程自动化和智能交互。

Station - AI基础设施管理运行时

Station是开源的AI代理基础设施运行时,提供MCP服务器以托管资源、工具和提示模板,赋能LLM自动化运维和管理。

Model Context Protocol (MCP) 冒险者公会服务器

一个基于Model Context Protocol (MCP) 实现的模拟冒险者公会服务器,提供任务、队伍管理、金库查询和队伍雇佣功能,支持用户权限分级和认证。

Jibberish MCP 示例工具服务器

Jibberish 仓库中的 MCP 示例工具服务器,通过 HTTP 和标准输入/输出 (Stdio) 实现 MCP 协议,为 LLM 客户端提供可发现、可调用的工具功能。

Swarm Scout MCP 服务器

Swarm Scout MCP 服务器将强大的 Scout 代码分析代理(支持 Bash 和 Ripgrep)作为可调用工具,通过 Model Context Protocol (MCP) 向 LLM 客户端提供代码理解和上下文发现能力。

Deco AI-Native 应用平台核心服务

Deco CMS提供了一个基于 Model Context Protocol (MCP) 的AI原生应用后端框架,用于管理AI资源、工具、工作流及会话,支持Cloudflare Worker部署。

MCP技能中心服务器

一个基于Model Context Protocol (MCP) 的技能服务器,动态加载和管理Claude技能,提供资源访问和工具调用,支持热重载。

Skillz MCP 服务端

托管和执行Anthropic风格的技能,通过MCP协议为LLM客户端提供上下文信息、工具调用和资源管理。

MCP Web 搜索工具

该项目是一个基于Model Context Protocol (MCP) 实现的服务器端,提供一个可供LLM调用的Web搜索工具,并支持Langfuse的分布式追踪。

Home Assistant AI 上下文服务器

为大语言模型(LLM)客户端提供与Home Assistant智能家居系统交互的后端服务,支持设备控制、状态查询和自动化管理。

ENGRAM 智能记忆 MCP 服务器

ENGRAM是一个生产级MCP服务器,为AI代理和LLM应用提供先进的记忆管理,支持短期与长期记忆、语义搜索和智能洞察。

IBM i MCP 服务器

基于Model Context Protocol (MCP) 为IBM i系统提供强大的SQL工具、资源托管和LLM交互服务。

公交与天气智能服务

提供美国天气预警和预测,以及特定区域的公交线路与机构数据,支持LLM通过MCP协议进行智能查询。

Predictable Agents MCP 服务器

一个多平台Kotlin库,提供功能齐全的AI代理和工具,并通过Model Context Protocol (MCP) 将其暴露为可被LLM客户端调用的上下文服务。

DeployStack

DeployStack 是一个 MCP 即服务平台,通过托管和管理 MCP 服务器简化 AI Agents 对工具、资源和 Prompt 的访问,实现零安装和统一治理。

Sylphx Flow 服务器

一个基于Model Context Protocol (MCP) 构建的AI代理协调平台,提供持久化内存管理和上下文服务。

cubby

cubby 是一个跨平台桌面上下文服务,通过 MCP 协议为 LLM 客户端提供屏幕内容搜索、应用控制和自动化工具。

Incident Agent MCP服务器

基于FastMCP框架,为LLM提供事件管理和分析服务,深度集成PagerDuty工具和资源。

示例MCP笔记服务器

这是一个基于Model Context Protocol (MCP) 的服务器,用于管理简单的文本笔记作为资源,并提供总结笔记的提示模板和添加笔记的工具。

fpf-sync MCP服务器

基于Model Context Protocol (MCP) 的后端服务,用于管理和暴露First Principles Framework (FPF) 领域的知识资源和操作工具,支持与LLM客户端进行上下文交互。

FastMCP 服务器模板

一个生产就绪的 FastMCP 服务器模板,支持动态加载工具、资源、Prompt,并提供身份认证和多种部署方式。

Agntcy应用SDK

一个Python SDK,用于构建和连接支持MCP等代理协议的智能体应用,提供多传输协议的MCP服务器与客户端功能。

ChatGPT 应用 MCP 服务器示例

提供基于 Model Context Protocol (MCP) 的示例服务器实现,用于将 ChatGPT 应用与外部系统(如交互式UI小部件)连接。

Mastra AI 框架

Mastra是一个用于构建AI应用和智能体的TypeScript框架,提供强大的工作流编排、上下文管理、工具调用和多模型集成能力,支持独立服务器部署。

AI Prompt Guide MCP

一个Model Context Protocol服务器,用于通过结构化Markdown知识图谱,为AI代理提供上下文信息和工具,实现任务驱动的代理编排工作流。

Atlassian MCP 服务端

为大型语言模型(LLM)提供访问和管理 Jira、Confluence 和 Bitbucket 数据及功能的标准化接口。

Vaali MCP 服务

这是一个基于 Model Context Protocol (MCP) 标准,提供资源、工具、Prompt 和交互式参数收集功能的先进 AI 代理服务器。

Beads Issue Tracker (MCP服务器)

一个轻量级的依赖感知问题追踪系统,通过MCP服务器向AI编码代理提供记忆和任务管理能力。

LLM知识图谱服务器

为LLM提供持久化记忆和上下文管理服务,支持文档存储、语义检索、分析与集群化,助力LLM构建长期知识。

mcbox

一个基于Bash和jq实现的轻量级、可插拔的MCP服务器,专为本地AI代理提供工具执行能力。

Go MCP 茶叶信息服务器

一个基于Model Context Protocol (MCP) 标准,用Go语言实现的服务器,提供茶叶工具、资源和提示服务,支持Stdio和HTTP/SSE传输。

知识图谱MCP服务器

将知识图谱的核心功能通过Model Context Protocol (MCP) 标准化为LLM可调用的工具,实现智能上下文服务和数据交互。

TN节点 (TRUF.NETWORK Kwil数据库节点)

基于 Kwil 框架构建的 TRUF.NETWORK 核心数据库层,为 AI 客户端提供上下文数据访问、工具调用及 Prompt 模板服务。

Pathwise MCP 服务器

Pathwise MCP 服务器为智能助手和自动化工具提供程序化访问,管理和提供用户求职申请数据。

Fastify MCP 服务器插件

将 Fastify 应用转变为高性能、可流式传输的 MCP 服务器,支持 AI 助手安全连接外部数据和工具。

MCP Node.js 服务端脚手架

为基于 Model Context Protocol (MCP) 构建的 Node.js 服务器提供核心框架和常用功能,简化 LLM 应用后端开发。

第二大脑AI助手MCP服务器

为LLM客户端提供个人知识管理(PKM)的上下文信息和工具,支持文档语义搜索、内容统计及领域查询,通过MCP协议进行标准化通信。

AgentMcp:智能代理工具服务器

一个基于MCP协议的后端服务,为大型语言模型提供文件系统、命令行、网页访问及任务委托等丰富工具集。

rmcp-openapi 服务器

将 OpenAPI 规范定义的 REST API 自动转换为 MCP 工具,使 LLM 客户端能通过标准化协议与外部 API 交互。

Ecosystems CLI MCP服务器

将ecosyste.ms API功能封装为MCP工具,通过标准上下文协议服务于LLM客户端,提供软件生态系统数据查询能力。

Travel Tracker MCP 服务

为大型语言模型(LLM)客户端提供旅程追踪应用的公共数据和工具访问,支持旅程信息查询、行程规划建议和公开页面内容获取。

Vector MCP:向量数据库统一管理服务

提供基于MCP协议的统一接口,管理多种向量数据库的集合、文档和RAG检索功能,简化LLM的上下文集成。

MCP用户管理上下文服务示例

该项目提供了一个基于Model Context Protocol (MCP) 的服务端与客户端实现,演示如何托管用户数据资源、定义LLM可调用的工具以及管理Prompt模板,实现与大型语言模型的深度集成。

MCP协议服务器示例集

提供多种语言和协议实现的MCP服务器示例,展示Model Context Protocol的核心功能和客户端集成。

Pantheon-MCP AI智能体服务器

这是一个MCP服务器,提供超过40种专业AI智能体(Agent)的定义和使用说明,方便LLM按需调用。

Context7

Context7 是一个基于 Model Context Protocol (MCP) 的服务器,为 AI 应用提供上下文信息和智能辅助能力。

Reddit研究MCP服务器

将Reddit的庞杂信息转化为结构化洞察,提供带有完整引用的市场、竞争和客户研究报告。

MCP工具与资源服务示例

一个基于Model Context Protocol (MCP) SDK构建的服务器实现示例,用于向LLM客户端提供资源访问和工具调用功能。

Searchcraft MCP 服务器

为LLM应用提供Searchcraft集群管理和搜索功能,通过MCP协议标准化地提供资源和工具服务。

Nanobot

Nanobot是一个灵活的MCP主机,用于构建和部署AI代理,通过标准化协议向LLM客户端提供上下文、工具和Prompt服务。

OpenRouter MCP服务器

为大语言模型客户端提供OpenRouter集成能力,通过MCP协议提供聊天补全工具。

Plugged.in AI内容管理与MCP服务平台

Plugged.in是一个将AI对话转化为持久化组织知识的智能内容管理系统,提供统一的MCP代理服务接口,用于连接、管理并向LLM客户端提供丰富的AI工具、上下文资源和Prompt模板。

The Futuristic Kami Omni-Engine

一个基于Model Context Protocol (MCP) 的未来派多链利润优化引擎,集成了AI代码智能、Azure云服务与区块链部署,为LLM客户端提供丰富的上下文与功能。

Obsidian CLI MCP 服务器

为 Obsidian 笔记库提供上下文管理和工具调用能力的 MCP 服务器,方便 AI 助手集成。

MCP天气服务演示

一个基于Model Context Protocol (MCP) 的简单Python服务器,提供天气预警和天气预报查询工具,通过JSON-RPC与LLM客户端通信。

Vault MCP 密钥管理服务

一个兼容 Model Context Protocol (MCP) 的 FastAPI 服务器,通过 HashiCorp Vault 为 LLM 代理提供安全、隔离的密钥和加密服务。

Claude-Flow

Claude-Flow是一个企业级的AI编排平台,作为MCP服务器实现,提供资源托管、工具执行和Prompt模板渲染,以标准化的JSON-RPC协议为LLM客户端提供上下文服务。

Mandoline MCP 评估服务器

基于 Model Context Protocol (MCP) 实现,为 AI 助手提供 Mandoline 评估框架,支持自定义指标和性能评估。

Codex Memory

一个高性能的Rust实现文本记忆存储服务,通过MCP协议为LLM客户端提供上下文管理、工具调用及智能搜索能力。

DevCycle MCP 服务器

DevCycle MCP 服务器允许 AI 编码助手通过 Model Context Protocol (MCP) 管理功能开关,提供上下文信息和工具执行能力。

LangGraph AI MCP服务器集

该仓库提供了一系列基于Model Context Protocol (MCP) 的服务器实现,为LLM应用提供终端命令执行、网页内容抓取、网页搜索和温度单位转换等多种外部功能与上下文信息。

MemKB 智能检索内存知识库

基于Rust的MCP服务器,利用语义搜索和外部LLM,为Markdown文档提供AI驱动的问答服务。

Motion MCP 服务器

将 Motion API 集成到大型语言模型 (LLM),提供任务、项目、用户等内容的上下文服务和工具调用能力。

@stringsync/spec

基于规范驱动开发(Spec-driven Development)的上下文服务,提供代码规范扫描、提示生成和LLM工具集成。

NotebookLM MCP 服务器

一个专业的Model Context Protocol (MCP) 服务器,通过自动化交互将Google NotebookLM的功能和上下文能力提供给LLM客户端。

RAGent MCP服务器

RAGent 提供了一个基于 Model Context Protocol (MCP) 的服务器,将混合搜索能力以标准化工具的形式暴露给 LLM 客户端。

Cupcake订单MCP服务器

一个基于FastMCP框架构建的MCP服务器,用于管理和查询虚拟的Cupcake订单资源。

Faxbot MCP 服务器

提供基于MCP协议的传真服务,使LLM能够发送传真、查询状态和管理收件箱,支持Python和Node.js实现及多种传输方式。

Mistral智能体MCP服务器

这是一个基于MCP协议的后端服务器,通过标准化的工具接口管理和操作Mistral AI平台上的智能体。

MCPLite

MCPLite 是一个轻量级、Pythonic 的 Model Context Protocol (MCP) 服务器框架,通过装饰器简化了 LLM 应用中外部工具、数据资源和 Prompt 模板的集成。

Spiceflow

一个轻量、类型安全的API框架,通过内置的Model Context Protocol (MCP) 插件,可轻松将现有API转换为LLM可用的工具和资源。

Zig语言文档MCP服务器

为LLM客户端提供Zig编程语言标准库和内置函数的最新文档和查询工具,支持本地与远程同步。

HelixDB MCP服务器

基于Python为HelixDB图向量数据库提供MCP服务,使LLM能通过标准化协议访问数据和调用图操作工具。

Pyramid MCP

一个Python库,将Pyramid Web框架应用端点无缝转换为遵循Model Context Protocol (MCP) 的工具服务器,为LLM提供上下文与功能。

Hellō 管理 MCP 服务器

该 MCP 服务器为大型语言模型(LLM)客户端提供标准化的上下文信息和工具,以管理 Hellō 平台的应用程序。

Go语言MCP服务器(含OpenTelemetry)

一个基于Go语言实现的Model Context Protocol (MCP) 服务器,内置OpenTelemetry支持,提供LLM应用所需的上下文服务和工具调用能力。

Swarm MCP 工具服务器

基于Model Context Protocol (MCP) 标准,为LLM客户端提供托管和管理外部工具(如天气查询、客户信息、网页抓取、维基百科搜索)的能力。

MCP 酒店查询后端服务(Python AI 代理框架示例)

一个基于 Model Context Protocol (MCP) 实现的酒店查询后端,提供标准化的工具调用接口,用于 LLM 应用集成。

Arcade AI 平台

Arcade AI 平台是一个用于构建、部署和管理 AI Agent 工具的开发平台,其核心 `arcade-serve` 库提供 MCP 服务器实现,以标准化方式向 LLM 客户端提供上下文信息和功能。

MCPJungle:MCP服务器智能代理网关

MCPJungle是一个自托管的MCP服务器网关和注册中心,为LLM客户端提供统一接口,安全管理和调用组织内所有注册的MCP服务器及其工具。

MonsterMQ MQTT代理与AI上下文服务

一个高性能、可扩展的MQTT消息代理,内置MCP服务器,为AI模型提供实时和历史MQTT数据访问及分析能力。

Go语言MCP API开发框架

Baby API是一个极简的Go语言CRUD API框架,通过集成Model Context Protocol (MCP) 功能,能快速构建面向LLM应用的上下文服务后端。

MCP日记应用服务器

一个基于Model Context Protocol (MCP) 实现的个人日记应用后端,提供日记管理、标签分类、AI辅助标签建议及内容补全等功能。

提示词管理MCP服务器

智能管理和优化LLM提示词,将成功对话转化为可复用的高质量提示词模板,并支持语义搜索和AI驱动的改进。

Cyoda MCP集成服务

基于Model Context Protocol (MCP)构建的应用后端,为LLM客户端提供对Cyoda平台实体管理、搜索、消息、工作流和部署功能的标准化访问。

Azure Model Context Protocol 服务器框架

Microsoft Azure MCP 服务器的核心框架,提供工具发现、加载和执行能力,支持多种模式和传输协议,实现与大型语言模型的上下文集成。

RoastMyPost MCP服务器

为LLM客户端提供文档评估、AI智能分析、资源管理及工具执行的Model Context Protocol (MCP) 服务器。

RewindDB MCP 服务器

一个将个人记忆助理 Rewind.ai 的数据和功能通过 Model Context Protocol (MCP) 标准暴露给 GenAI 模型的后端服务。

MCP项目上下文管理器

为LLM(如Claude Desktop)提供项目上下文、工具访问和持久化记忆功能的MCP服务器。

TurboMCP: Rust MCP服务器SDK

高性能Rust SDK,用于构建Model Context Protocol (MCP) 服务器,为LLM客户端提供上下文信息、工具和交互模式。

Schoology MCP 服务器

将Schoology课程和作业信息集成到LLM应用,通过标准MCP协议提供上下文和工具调用能力。

MCP PHP SDK

官方PHP SDK,提供一套框架无关的API,用于在PHP中快速构建和实现Model Context Protocol (MCP) 服务器。

kintone MCP 服务器

为大语言模型(LLM)客户端提供访问和管理kintone平台数据及功能的标准化MCP服务器。

SQL Server MCP上下文服务

基于Model Context Protocol (MCP) 的.NET Core应用,提供与Microsoft SQL Server数据库交互的上下文服务,支持查询、模式发现、存储过程管理等功能。

Chat UI 扩展 MCP 服务集

该仓库提供了一系列基于 FastMCP 框架构建的 MCP 服务器实现,为 Chat UI 提供计算、文件管理、代码执行、PDF分析、网页搜索等扩展功能。

Veas CLI

Veas CLI是一个通用命令行工具,通过实现Veas协议和内置MCP服务器,为知识管理系统和AI助手提供无缝集成。

文档问答机器人MCP服务器

一个基于MCP协议的文档问答机器人后端,提供结构化的工具和上下文信息,支持LLM应用集成。

ABAP ADT MCP 服务

连接现代开发工具与SAP ABAP系统,为LLM提供ABAP开发上下文和操作能力的MCP服务器。

MCP 服务示例:搜索图像与多工具集成

一个基于MCP协议的后端服务器示例,提供图像搜索等多种工具服务,并演示与AI代理的集成。

QuickMCP: OpenAPI/Discovery转MCP服务器

用.NET轻松构建和运行基于OpenAPI/Google Discovery的MCP服务器。

lkr CLI - Looker MCP 服务器

结合 Looker SDK 提供 CLI 工具,并内置 MCP 服务器为 LLM 客户端提供 Looker 上下文和功能。

.NET MCP Web App Server

基于.NET实现的模型上下文协议(MCP)服务器示例,提供工具执行能力,可部署至Azure。

Blaxel MCP Hello World 服务器示例 (TypeScript)

一个简单的TypeScript MCP服务器模板,演示了如何使用Blaxel平台创建并运行MCP工具。

Golf:简易MCP服务器构建框架

Golf是一个Python框架,通过约定俗成的目录结构定义工具、资源和Prompt,自动构建可运行的FastMCP服务器,大幅简化LLM应用后端开发。

Madness Interactive - Omnispindle MCP 服务器

Madness Interactive 生态中的核心 MCP 服务器,用于分布式任务管理、Agent 协同与上下文服务。

MCP Azure Blob Storage 服务器示例

通过MCP协议为大型语言模型客户端提供Azure Blob Storage的访问与管理能力。

Terminal MCP

通过标准输入输出(Stdio)为LLM客户端提供工具集和上下文的MCP服务器实现。

go-mcp-reflect: Go 函数自动转 MCP 工具服务器

利用 Go 反射机制,自动将 Go 函数转换为 AI 可调用的 MCP 工具,极速构建上下文服务后端。

Excom - Elixir MCP

基于Elixir语言实现的MCP服务器,为LLM提供上下文和功能服务。

Firelynx MCP服务器

可脚本化的MCP服务器,为AI应用提供定制工具、资源和Prompt能力。

Vercel MCP适配器

在Vercel/Next.js应用中快速构建和部署Model Context Protocol (MCP) 服务器,连接您的应用功能与AI模型。

Croft Laravel MCP Server

专为本地 Laravel 开发构建的 MCP 服务器,为 AI 客户端提供丰富的项目上下文和操作工具。

FastMCP示例服务器

提供基于FastMCP库的示例服务器实现,展示如何定义和使用LLM工具。

程序员MCP服务器

基于Model Context Protocol (MCP),为程序员提供编程上下文和AI工具的应用后端。

Go语言MCP服务器开发入门

Go语言MCP服务器开发入门项目,包含使用Go构建基础MCP服务器、集成Gin框架和处理认证的示例代码。

TypeScript MCP资源服务器示例

基于TypeScript和Firestore,演示OAuth认证和工作空间隔离的MCP资源服务器参考实现。

RISKEN MCP 服务器

将RISKEN的安全数据和功能暴露给LLM客户端,实现自动化和智能交互。

AI Agent通用工具集MCP服务器

提供一套基于MCP协议的通用工具集,支持LLM客户端访问网页搜索、天气查询和航班搜索等功能。

Agentic Framework MCP服务器

基于MCP协议,托管多种AI工具(如天气、航班、量子计算等),为LLM客户端提供上下文和能力。

Neovim MCP 服务器

为语言模型提供访问和控制 Neovim 的上下文服务器。

Bash MCP服务器实现

一个基于纯Bash实现的轻量级Model Context Protocol (MCP) 服务器,提供工具调用等功能。

Godot Swift MCP 服务器

使用 Swift 为 Godot 游戏引擎构建的 MCP 服务器,提供上下文信息和功能。

YouTube MCP服务器

提供基于MCP协议的后端服务,允许LLM通过工具调用搜索YouTube视频。

WhatsApp Business API MCP 服务器

将 WhatsApp Business API 功能封装为 MCP 工具,为 LLM 客户端提供服务。

Jarvis-DFIR

基于MCP协议,为数字取证和事件响应提供集中式平台,集成分析工具和自动化能力。

Strands Agents 文档 MCP 服务器

为支持MCP协议的AI助手提供Strands Agents SDK文档上下文。

MCP 可执行服务器

将基于 Model Context Protocol (MCP) SDK 构建的服务器打包成独立可执行文件,支持灵活配置和多种连接方式。

提示词检索MCP服务器

基于MCP协议,提供强大的提示词检索及上下文增强能力。

MCP 热点新闻服务

基于阿里云百炼API,提供实时热点新闻获取能力的MCP服务端。

Neo4j 知识图谱记忆服务器

一个基于 Neo4j 数据库的 MCP 服务器,为大型语言模型提供知识图谱存储与检索能力。

Node.js MCP 服务器可执行版

将 Node.js 构建的 MCP 服务器打包为可执行文件,提供资源、工具、提示等上下文服务。

Zuplo MCP 服务器 SDK

基于 TypeScript 的 SDK,用于构建符合 Model Context Protocol 的服务器,为 LLM 应用提供上下文和工具。

MCP PDF 服务器

基于Model Context Protocol,为LLM提供PDF文件访问和文本提取工具,辅助AI处理文档。

MCP代理服务器

将多个MCP服务器聚合为一个统一接口,提供工具、资源和提示能力给LLM客户端。

VistA AI Context Server

为大语言模型提供VistA医疗系统患者和药物信息的MCP服务器实现。

CHUK MCP Runtime

灵活的框架,用于托管本地AI工具、管理上下文信息,并代理远程服务,为LLM客户端提供统一接口。

Offorte MCP服务器

一个实现了Model Context Protocol (MCP) 的服务器,用于连接Offorte API,赋能AI应用创建和发送商业提案。

Pub.dev MCP 服务器

一个MCP服务器,通过工具为LLM提供访问pub.dev软件包仓库的能力。

fred-mcp

FRED Python MCP服务器,为LLM提供FRED相关数据和功能的上下文服务。

AWS Lambda 无状态 MCP 服务器 CDK 部署

利用 AWS CDK 在 Lambda 构建无状态 MCP 服务器后端,为 LLM 应用提供上下文和工具。

MCP版GitHub GraphQL工具

通过MCP协议,为大模型客户端提供访问GitHub GraphQL API的能力。

Model Context Protocol 服务器示例集

包含基于 Model Context Protocol (MCP) 构建的服务器端示例,展示如何实现上下文服务和工具调用。

MCP 请假跟踪服务器

基于 FastMCP 库构建的请假跟踪应用后端,通过 MCP 协议提供请假管理工具和数据访问。

MCP工具服务器示例

基于mcp库构建的示例项目,演示了如何实现支持Stdio和SSE协议的MCP工具服务器。

MCP Twitter发布服务器

一个MCP服务器,通过工具集成Twitter API, enabling LLM客户端发布推文。

PlaybookMCP

一个基于Model Context Protocol (MCP) 的服务器,用于团队协作共享和管理AI/代理的自动化指令集(Playbook)。

C# MCP 服务器与客户端演示

基于 C# 和 ASP.NET 实现的 MCP 服务器和客户端示例,演示如何构建 MCP 服务器、注册工具及客户端如何发现和调用这些工具。

KuzuMem-MCP

一个基于KùzuDB图谱数据库构建的TypeScript MCP服务器,为AI提供知识存储和图谱分析工具。

Lightpanda Go MCP 服务器

基于Go语言实现的MCP服务器,提供浏览器交互和网页内容提取工具。

Canvas LMS MCP

通过 MCP 协议让 AI 助手获取 Canvas LMS 数据

基于Spring Boot的MCP服务器框架

为大模型应用提供上下文管理和工具服务,基于Spring Boot构建,支持工具自动化注册与执行。

Blaxel Typescript SDK

用于连接智能体或工具到 Blaxel 平台,并支持使用 Blaxel SDK 构建 MCP 服务器的 TypeScript 开发工具包。

Fluent MCP

用于使用流畅接口快速构建 Model Context Protocol (MCP) 服务器的 JavaScript/TypeScript 库。

Nextcloud MCP Server

连接大语言模型到Nextcloud,提供笔记管理和能力查询等功能。

Fintual MCP 服务器

提供一个基于MCP协议的服务,使语言模型能够通过工具访问Fintual的API数据和功能。

ERPNext MCP 服务器

一个基于MCP协议,连接AI与ERPNext系统的后端服务,提供文档管理、报表、文件操作、系统信息等功能。

ABAP MCP 服务器实现

在 SAP ABAP 环境中实现 MCP 协议,提供 LLM 上下文信息和功能。

HTTP Privacy

多语言AI后端,通过集成MCP协议库提供LLM上下文服务(资源、工具)。

MCP 应用后端模板

基于 Rails 和 MCP 协议,为 AI 应用提供带认证、支付、工具和资源能力的上下文服务后端模板。

文件系统 MCP 服务器

Ruby服务器,通过MCP协议为LLM客户端提供安全的文件系统访问和管理能力。

MCP Nextcloud 日历服务器

连接您的 Nextcloud 日历,通过 Model Context Protocol (MCP) 接口提供日历的查看、创建、修改、删除等功能,赋能支持 MCP 的大模型应用。

基于Google Apps Script的MCP服务器示例

在Google Apps Script环境中实现模型上下文协议(MCP)服务器,提供基础上下文服务功能。

Qilin MCP服务器框架

一个用Go语言构建的Model Context Protocol (MCP) 服务器框架,用于向LLM提供资源和工具服务。

Jira MCP Server

提供 MCP 工具与 Jira 交互,使 LLM 能够获取、创建和搜索 Jira 问题。

MCP服务器基础框架

提供一个基于Python MCP SDK的标准容器化基础镜像和工具,用于快速构建和部署Model Context Protocol (MCP) 服务器。

FastMCP-Scala: Scala MCP 服务器构建库

基于Scala 3和ZIO,用于快速、便捷地构建符合Model Context Protocol (MCP) 标准的应用后端服务器。

MCP文档搜索工具服务器

通过MCP协议为LLM提供搜索和访问LangChain、OpenAI等库文档的能力。

Poem MCP服务器

基于Poem Web框架实现的Model Context Protocol服务器。

MCP 文件沙箱服务器

一个基于MCP理念的简单文件访问服务器,为LLM提供在安全沙箱内读写和列出文件的能力。

Coputo

基于TypeScript和Fastify的MCP服务器框架,快速构建LLM上下文服务后端。

Zoom MCP 服务器

通过标准化的MCP协议,允许AI工具(如Claude, Cursor)创建、管理和检索Zoom会议。

剑桥词典 MCP 服务器

一个基于MCP协议的词典服务器,提供剑桥词典的单词查询和详细解析功能。

FastMCP 示例服务器

基于 FastMCP 框架构建的 MCP 示例服务器,用于向 LLM 客户端提供简单的资源和工具访问能力。

MCP Swift SDK

为Swift开发者提供构建和连接遵循Model Context Protocol (MCP) 标准的服务器和客户端的工具包。

Simple Tool Server

轻量级异步API平台,用于管理和运行Model Context Protocol (MCP) 工具和服务器,提供上下文服务。

OpenSearch MCP 服务器

基于MCP协议,连接OpenSearch数据库,提供数据查询和集群管理工具给LLM客户端。

Toolkami

一个极简的AI代理后端,通过标准化工具为LLM提供文件、终端、网页等上下文功能。

MCP文档阅读与创建助手

基于MCP协议的服务器,帮助AI Agent访问项目文档或指导文档创建。

Bilibili MCP服务器

为支持MCP协议的LLM客户端提供查询Bilibili用户信息的服务。

Kubernetes临时MCP服务器管理器

在Kubernetes集群中动态按需创建、管理和删除Model Context Protocol (MCP) 服务器的后端服务。

AI客户支持机器人MCP服务器

基于MCP协议,为AI客户支持机器人提供上下文信息和智能回复功能的后端服务。

Python MCP服务器快速启动模板

使用Python和MCP SDK快速构建模型上下文协议(MCP)服务器的模板,为LLM提供数据和工具访问能力。

FastAPI MCP 服务器

基于FastAPI的MCP服务器,为大型语言模型提供上下文管理、工具调用和SSE实时通信能力。

Gradio 最小 MCP 服务器

一个基于 Gradio 构建的最小化 MCP 服务器,提供 Web UI 和可被 LLM 客户端调用的工具接口。

A2A Java MCP 服务器框架

基于Java Spring Boot实现的MCP服务器框架,提供工具注册、调用及任务管理能力。

美剧推荐 MCP 服务器

基于TMDb API的美剧推荐MCP服务器,提供按类型推荐、相似剧集推荐和剧集详情功能。

FastAPI FastMCP 集成服务器

集成FastAPI和FastMCP,快速构建可扩展的LLM上下文服务器,支持工具、资源、Prompt自动发现。

Jaeger MCP 服务器

提供 Jaeger 追踪数据作为资源,通过 MCP 协议为 LLM 客户端提供上下文和工具能力。

HTTP + SSE MCP 服务器 (OAuth)

基于MCP协议,实现HTTP/SSE传输协议并集成OAuth认证的MCP服务器参考实现。

JSON MCP服务器

一个实现MCP协议的应用后端,使大型语言模型能通过工具与JSON文件交互,执行分割、合并等操作。

Go语言版MCP服务器框架

基于Model Context Protocol (MCP),提供Go语言实现,用于构建标准化的AI应用后端,连接应用与AI模型。

货运数据管理MCP服务

提供对货运路线及城市数据进行查询和修改的能力,供LLM客户端调用。

Fabric MCP 服务器

将 Fabric AI 框架的能力通过 MCP 协议暴露给兼容的 LLM 客户端。

浏览器自动化MCP服务器

基于MCP协议的后端服务,通过浏览器插件为LLM客户端提供网页导航、交互及状态获取能力。

Reader MCP Server

将Readwise Reader资料库暴露为MCP服务,供LLM客户端访问文档。

MCP SSE 网关管理器

提供一个框架,用于启动和管理多个 MCP 服务器,通过统一网关暴露为 SSE 服务,供 LLM 客户端调用工具和访问上下文。

钉钉 MCP 服务器

将钉钉开放平台能力封装为 MCP 服务,为 AI Agent 提供钉钉相关的资源和工具。

MCP服务器示例 (Toy)

一个简单的MCP服务器示例,用于测试和演示MCP协议的基本工具功能。

Kibana MCP 服务器

通过MCP协议,允许LLM客户端或兼容应用访问Kibana实例的数据和API能力。

TypeScript MCP服务器模板

基于TypeScript的Model Context Protocol (MCP) 服务器基础框架,提供核心工具、资源示例及生产级开发工具。

MCP 服务器脚手架工具

快速创建、配置和部署基于 Cloudflare Workers 的 MCP 服务器,简化 LLM 工具开发。

Tama - AI 任务管理器 (含 MCP)

基于AI的任务管理器CLI,支持任务管理、AI辅助,并提供MCP服务器接口为LLM提供任务上下文及工具调用能力。

Spring AI MCP 服务器示例

基于 Spring AI 框架,提供 MCP 服务器的 Stdio 和 SSE 实现示例,支持工具调用。

Quip MCP Server (Python)

基于 Model Context Protocol (MCP),提供访问 Quip 电子表格数据及相关工具的后端服务。

CalDAV MCP 服务器

连接您的CalDAV账户,为大型语言模型提供日历和任务数据作为上下文或执行操作。

.NET MCP 工具包

轻量、快速、兼容 NativeAOT 的 .NET MCP 服务器和客户端框架。

Microsoft Files MCP 服务器

提供通过 MCP 协议访问 Microsoft 365 文件和驱动器的服务器实现,为 LLM 客户端提供相关上下文和操作工具。

基于Spring Boot的MCP工具服务器

提供基于Model Context Protocol (MCP) 的工具注册与执行服务,支持集成Spring AI工具。

Azure AI 旅行助手

一个基于Model Context Protocol的多智能体AI旅行应用示例。

Zerocracy MCP 服务器

将 Zerocracy 服务能力以 MCP 协议方式暴露给 LLM 客户端,提供特定工具功能。

K8sGPT

K8sGPT 是一款用于扫描 Kubernetes 集群、诊断并以自然语言解释问题,并可作为 MCP 服务器为 LLM 客户端提供上下文的服务端应用。

daphnetd - MCP 服务端

Model Context Protocol (MCP) 后端服务,为AI客户端提供上下文、工具调用和Prompt管理能力。

MCP Agent Server

连接AI客户端与智能代理的MCP中心,通过工具提供多样的AI能力和上下文。

PHP MCP Server

核心PHP库,用于构建符合Model Context Protocol (MCP)标准的服务器,轻松将PHP应用逻辑暴露给LLM客户端。

MCP待办事项应用

一个通过Model Context Protocol (MCP) 为AI助手提供待办事项清单访问和管理能力的服务器。

FastMCP 演示服务器

基于 FastMCP 库实现的简单 MCP 服务器,用于演示 MCP 协议功能及Agent客户端连接。

Scratch MCP Ruby 实现

使用 Ruby 实现的 MCP 服务器基础框架与示例,支持生命周期管理和工具调用。

Nacos MCP Wrapper Python

用于将Python MCP服务器注册到Nacos,支持工具动态配置。

NanoAgent MCP 服务器

基于 NanoAgent 微框架的 MCP 服务器组件,用于托管和远程调用工具。

AI 编程规则 MCP 服务器

通过MCP协议向AI助手提供编程规范和规则的后端服务组件。

Go+ MCP服务器开发框架

基于Go+语言实现的Model Context Protocol (MCP) 服务器开发框架,简化LLM应用后端构建。

Node.js MCP服务器框架

一个使用官方SDK构建的Node.js应用,实现了MCP服务器协议,为AI助手提供可扩展的工具、资源和Prompt上下文服务。

基于Genkit的MCP服务器实现示例

一个演示如何使用 Genkit 在 Firebase/Cloud Run 构建 AI 应用的示例项目,内含 MCP 服务器实现代码。

mcp-proxy-hub

聚合多个MCP服务器的功能,通过统一接口为LLM客户端提供服务。

MCP Go服务器入门示例

使用 Go 语言和 mcp-go 库构建的 MCP 服务器基础示例,展示工具、资源和提示词的实现。

MCP员工请假服务器

一个基于MCP协议的后端服务,提供员工请假查询和申请功能,可供LLM客户端使用。

mq MCP服务器

基于类jq语法处理Markdown,为LLM提供文档内容提取和转换能力的MCP服务器。

Steampipe MCP 服务器

基于MCP协议,为LLM客户端提供访问Steampipe数据库的能力,通过工具查询数据和元信息。

MySQL MCP 服务器生成器

基于 Web 界面的工具,用于快速生成支持 MySQL 数据库查询的 MCP 服务器脚本 (stdio/SSE)。

Deco MCP 服务器插件

将 Deco 网站转换为 MCP 服务器,为 LLM 客户端提供工具调用能力。

Cloudflare Workers MCP服务器示例

基于Cloudflare Workers平台构建的MCP服务器演示项目,提供LLM工具和OAuth认证。

Azure Functions MCP 服务

基于 Azure Functions 构建 Model Context Protocol (MCP) 服务器,提供工具能力给 LLM 客户端。

MCP测试服务器集合

提供多种功能各异的MCP服务器示例,用于测试和验证Model Context Protocol客户端及服务器实现。

SearXNG MCP 服务器

通过MCP协议,为大型语言模型提供基于SearXNG的隐私友好型网页搜索能力。

PAELLADOC

基于AI-First理念,通过MCP协议为LLM提供项目上下文管理和文档生成工具的后端框架。

Magic UI MCP 服务端

通过Model Context Protocol (MCP)向大模型客户端提供Magic UI组件和示例访问能力的后端服务。

MCP 天气信息服务

提供通过 MCP 协议访问天气预报和预警信息的能力。

PostgreSQL MCP 后端服务

基于 MCP 协议,为大语言模型提供访问和操作 PostgreSQL 数据库的能力。

Spring AI MCP 服务器示例

基于 Spring AI 实现的 MCP 服务器示例,演示如何托管工具,为 LLM 客户端提供上下文和功能。

Buildkite MCP 服务器

通过MCP协议,为LLM客户端提供Buildkite CI/CD平台的上下文信息和操作工具。

Ultimate MCP Server

基于 Model Context Protocol (MCP) 的全面服务器,为AI Agent提供丰富的工具、记忆和模型调用能力,增强认知与操作。

KOI-MCP Integration

连接知识组织基础设施 (KOI) 中的智能体个性与能力到大型语言模型 (LLM) 客户端,以标准化的资源和工具形式呈现。

Hono无状态MCP服务器(Cloudflare适配)

基于Hono框架,实现Model Context Protocol (MCP) 的无状态服务器,优化适配Cloudflare Workers等Serverless环境。

MCP时间服务

一个基于.NET实现的简单MCP服务器,提供当前时间和指定时区的时间信息,作为LLM应用的工具。

PHP MCP服务器开发库

使用PHP快速构建遵循Model Context Protocol (MCP)标准的服务器,为大模型提供上下文和工具。

Convoworks GPT MCP服务器插件

基于Convoworks框架,将WordPress服务扩展为MCP服务器,通过SSE协议为LLM客户端提供工具和Prompt能力。

go-a2a

go-a2a 是使用 Go 语言实现的 Agent-to-Agent (A2A) 协议库,它不仅实现了 A2A 协议,还集成了 Model Context Protocol (MCP),可以作为有效的 MCP 服务器使用,为 LLM 应用提供资源、工具和 Prompt 管理等上下文服务。

Browser MCP

Browser MCP 是一款模型上下文协议 (MCP) 服务器,旨在使 AI 应用程序能够控制您的浏览器,提供上下文信息和功能,实现更智能的 Web 交互。

Teamtailor MCP Server

Teamtailor MCP Server 提供对 Teamtailor API 的集成,允许通过 MCP 协议调用 Teamtailor 的候选人数据。

数据库MCP服务

基于MCP协议的数据库服务,提供数据库查询和管理的工具,支持多种数据库类型。

CLAP Agent MCP Server Examples

CLAP Agent MCP Server Examples展示了如何使用fastmcp构建MCP服务器,为CLAP Agent提供远程工具和资源访问能力。

火山引擎MCP服务器市场

火山引擎MCP服务器市场,提供丰富的云服务和第三方工具集成,支持多种部署模式,助力开发者快速构建AI大模型应用。

Solace Agent Mesh

开源框架,用于构建事件驱动的多智能体AI系统,提供灵活接口和内置编排能力。

Perses MCP Server

Perses MCP Server 是一个本地 MCP 服务器,它使得 LLM 客户端能够以标准化的方式与 Perses 应用交互,获取监控数据上下文。

Teamwork AI MCP Server

Teamwork AI MCP Server为LLM客户端提供Teamwork.com的项目管理上下文和操作工具,实现AI智能体与Teamwork.com的集成。

SpaceBridge MCP Server

SpaceBridge MCP服务器连接AI助手与SpaceBridge平台,实现跨Issue跟踪器的Issue管理自动化。

Laravel MCP Server

基于 Laravel 框架构建的 MCP 服务器,通过 SSE 协议提供安全可扩展的上下文服务框架。

Terragrunt文档MCP服务器

为LLM应用提供Terragrunt文档和GitHub issues上下文信息的MCP服务器。

JokesMCP-TS服务器

JokesMCP-TS 是一个基于 Model Context Protocol 的服务器,通过工具提供 Chuck Norris 笑话和 Dad Jokes 笑话。

ACI.dev - AI 工具调用基础设施

ACI.dev 是一个开源平台,通过统一的 MCP 服务器和 Python SDK,为 AI Agent 提供安全、可扩展的工具集成和上下文服务。

IoT与Memory管理MCP服务器

基于FastMCP框架构建的物联网设备控制与长期记忆管理MCP服务器,提供设备控制、状态查询及长期记忆存储和检索等功能。

KWDB MCP Server

KWDB MCP Server 是一个基于 Model Context Protocol 的应用后端,旨在为 LLM 客户端提供访问 KaiwuDB 数据库的标准化上下文服务,支持资源管理、工具注册和 Prompt 模板渲染等核心 MCP 功能。

MCP-Nhost 服务器

MCP-Nhost 是一个基于 Model Context Protocol 的服务器实现,用于与 Nhost Cloud 项目和服务进行交互,提供 GraphQL Schema 获取和查询执行等工具。

Maoto Agent MCP服务器

Maoto Agent框架的MCP服务器扩展,为LLM应用提供工具注册、发现和执行能力。

MCP Server Basic Example

一个使用Python实现的MCP服务器基础示例,演示了如何通过工具和资源为LLM提供上下文信息和功能扩展。

GenAI Event Recommendation MCP Server

基于 Spring Boot 和 MCP 构建的事件推荐聊天机器人后端,提供资源访问、工具注册和 Prompt 模板渲染等 MCP 核心功能。

MCP工具服务器示例

基于FastMCP框架构建的示例MCP服务器,演示了如何集成和使用各种工具,如天气查询、播客制作和代码评审。

AI便签MCP服务器演示项目

一个基于Python的MCP服务器演示,用于AI便签应用,提供资源、工具和Prompt管理功能。

miru MCP 服务器

miru MCP 服务器提供软件包文档和相关链接的检索工具,为语言模型提供软件库信息的上下文服务。

MCP Gateway

MCP Gateway 是一个轻量级、高可用的网关服务,旨在通过配置将现有 API 服务转换为 MCP 服务器,为 LLM 应用提供上下文服务。

HiRAG-MCP服务器

HiRAG-MCP服务器是一个Python实现的MCP服务器,为LLM应用提供基于HiRAG的增强检索工具,支持本地和混合检索。

MCP Connect Server

轻量级后端服务器,用于连接和管理多个 Model Context Protocol (MCP) 服务器,简化 LLM 应用的上下文服务集成。

AI 助手记事本服务器

一个基于 MCP 协议的简单记事本应用后端,支持 AI 助手进行笔记的创建、读取、总结等操作。

GLUE框架:GenAI链接与统一引擎

GLUE框架是一个用于构建多模型AI应用的强大框架,它集成了MCP服务器功能,支持资源、工具和Prompt模板管理,为LLM客户端提供上下文服务。

llms-full MCP 服务器

llms-full MCP 服务器是一个为 LLM 应用提供文档检索和 Web 搜索功能的后端服务,通过统一的 MCP 协议进行交互。

API200 MCP 服务器

API200 MCP 服务器是一个基于 MCP 协议的应用后端,旨在将 API-200 平台集成的第三方 API 以工具形式提供给 LLM 客户端使用。

Weather Service MCP Server

一个简单的Python MCP服务器示例,提供天气信息查询工具,如实时天气、天气预报和天气警报。

Micro.mcp MCP服务器框架

Micro.mcp 是一个轻量级的 Python MCP 服务器框架,帮助开发者快速构建和部署符合 Model Context Protocol 标准的应用后端,用于管理资源、工具和 Prompt,为 LLM 应用提供上下文服务。

DadMCP服务器

DadMCP服务器为家庭教育场景提供AI能力,通过MCP协议与客户端通信,实现远程教育资源的访问和工具调用。

URL Instax MCP服务器

提供网页截图功能的MCP服务器,使LLM可以通过工具调用获取网页截图,增强LLM的网页内容理解能力。

Recall.js MCP服务器

Recall.js 作为一个轻量级RAG系统,通过MCP协议提供语义搜索工具,为LLM应用提供本地知识库的访问能力。

任务管理MCP服务器

一个基于MCP协议的任务管理服务器,增强AI代码编辑器的上下文处理能力,提供任务规划、执行和用户界面。

CoorAgent

CoorAgent 是一个 AI 协作社区平台,支持通过 MCP 协议扩展和集成外部工具与资源,为 LLM 应用提供上下文服务。

TypingMind MCP Connector

TypingMind MCP Connector 是一个轻量级服务器,用于管理和连接多个 Model Context Protocol (MCP) 客户端,方便 TypingMind 等应用集成自定义 AI 模型和工具。

Super Agent Party

Super Agent Party 是一个将大型模型转化为智能代理的应用后端,支持知识库访问、互联网连接、MCP 服务调用、深度思考和深入研究,并通过 OpenAI API 或 Web/桌面应用进行访问。

FastSD CPU MCP服务器

FastSD CPU MCP服务器是一个基于FastAPI构建的MCP后端,为LLM客户端提供快速CPU上的Stable Diffusion图像生成服务。

Ably CLI MCP Server

基于Ably CLI的MCP服务器,为LLM客户端提供与Ably服务的上下文连接和功能调用能力。

EigenLayer MCP Server

基于 Next.js 构建的 EigenLayer MCP 服务器,通过 MCP 协议向 AI 助手提供 EigenLayer 文档资源访问能力。

Agent Swarm Kit

轻量级 TypeScript 库,用于构建可编排的多智能体 AI 系统,支持 Model Context Protocol (MCP) 服务器集成,提供上下文服务框架。

MCP MongoDB 小说服务器

基于 Model Context Protocol,为 LLM 提供 MongoDB 数据库中小说数据的上下文服务,专为小上下文窗口优化。

Cloudflare远程MCP服务器

基于Cloudflare Workers构建的远程MCP服务器,提供OAuth登录和工具注册能力,可与Claude等客户端集成。

AWS MCP Server

基于MCP协议的AWS工具服务器,为LLM提供AWS云服务和本地文件系统访问能力。

Workflows MCP

Workflows MCP是一个MCP服务器,用于编排和组合多个Prompt和MCP服务器,简化AI工具的使用和管理。

JS MCP Server

一个基于 JavaScript 开发的 MCP 服务器,用于管理资源、工具和 Prompt,为 LLM 应用提供上下文服务。

MCP实验服务器示例

基于Model Context Protocol的实验性服务器,提供工具注册和执行能力,演示了Stdio和SSE两种传输协议的应用。

lua-resty-mcp

基于OpenResty和Lua的MCP服务器SDK,用于构建和管理LLM应用的上下文服务后端。

Google Drive MCP Server

为大型语言模型客户端提供访问Google Drive文件的MCP服务器,支持文件搜索和内容获取功能。

Product Hunt MCP Server

Product Hunt MCP Server是一个即插即用的MCP服务器,为LLM应用提供访问Product Hunt数据的能力。

Synapstor

Synapstor是一个模块化的库,用于语义存储和检索信息,通过向量嵌入和Qdrant数据库为LLM应用提供上下文服务。

Airweave

Airweave是一个多应用数据集成平台,可将各类应用转化为AI Agent可用的语义化MCP服务器,提供统一数据访问和检索能力。

Modular MCP Server Framework

一个可配置的框架,用于将命令行工具作为 MCP 工具提供给 LLM,实现上下文增强。

Orval MCP Server Generator

Orval generates MCP server-side code from OpenAPI specifications, providing standardized context services for LLM applications.

Tiny MCP

轻量级的MCP服务器与客户端Python实现,提供天气、时间等示例服务,助力LLM访问外部工具。

Gemini MCP Router

基于Gemini API构建的MCP服务器,提供聊天、搜索、RAG等多种工具,通过路由实现智能上下文服务。

Anytype API MCP服务器

基于FastAPI构建的Anytype MCP服务器,提供资源管理、工具注册和Prompt模板定义等功能,用于连接LLM客户端与Anytype。

Whistler天气MCP服务器

一个基于MCP协议的服务器,提供Whistler Blackcomb滑雪胜地的实时天气信息,包括山区和村庄的天气预报。

Cognisphere ADK

Cognisphere ADK是一个认知架构框架,集成了记忆管理、叙事构建、身份系统和MCP协议,提供AI Agent上下文服务能力。

股票分析MCP服务器

基于Model Context Protocol构建的MCP服务器,为LLM客户端提供股票分析工具和数据访问能力。

GitHub Copilot MCP集成示例

该仓库通过示例项目展示了如何将MCP服务器与GitHub Copilot Agent模式集成,提供上下文信息和工具能力。

Pipulate工作流框架

Pipulate是一个本地优先的桌面应用框架,为AI工作流提供上下文服务,可作为轻量级MCP服务器使用。

Speelka Agent

Speelka Agent 是一个通用的 LLM Agent,基于 Model Context Protocol (MCP) 构建,能够利用来自其他 MCP 服务器的工具,为 LLM 客户端提供上下文服务。

AJ-MCP:轻量级Java MCP SDK

AJ-MCP 是一个轻量级的 Java SDK,用于构建 MCP 客户端和服务器,提供资源管理、工具注册和 Prompt 模板等核心 MCP 功能,支持 Stdio 和 SSE 传输协议。

MCP服务器示例集

本仓库提供了一系列基于Model Context Protocol (MCP) 的服务器示例,包括天气查询和BMI计算工具,旨在帮助开发者快速上手MCP服务器的开发与部署。

MCP Server Starter Kit

基于 Model Context Protocol 的服务器启动器,帮助开发者快速搭建本地 MCP 服务器,集成自定义工具,为 AI 助手提供上下文服务。

Vectra知识库MCP服务器

Vectra MCP Server是一个基于Model Context Protocol的服务器,用于连接和查询Vectra知识库,提供知识库管理和查询工具。

GoldRush MCP Server

GoldRush MCP Server 是一个基于 Model Context Protocol 的服务器,它将 Covalent GoldRush API 的数据和功能以资源和工具的形式提供给 LLM 客户端。

MCP意图驱动演示服务器

演示基于意图的MCP服务器,通过声明式配置管理工具,提供上下文服务,是MCP协议的服务器端实现示例。

Memory MCP Server (Go)

基于Model Context Protocol的知识图谱内存服务器,为LLM应用提供持久化记忆能力,支持知识图谱的存储、检索和管理。

Slack工具 MCP 服务器

通过 Model Context Protocol (MCP) 协议,为AI助手提供访问Slack的功能,包括搜索消息、设置状态、管理提醒等。

Better Auth MCP Server

为 Better Auth 应用提供模型上下文协议 (MCP) 服务,管理资源、工具和 Prompt 模板,标准化 LLM 交互。

PostgreSQL MCP Server

一个基于 MCP 协议的服务器,允许 LLM 应用连接和查询 PostgreSQL 数据库,提供数据库信息和执行 SQL 查询的功能。

Voiceflow 知识库查询 MCP 服务器

一个基于 Node.js 的 MCP 服务器,允许 LLM 客户端通过 Model Context Protocol 访问 Voiceflow 知识库,实现知识检索与问答功能。

a2a4j MCP服务器

基于Spring MVC和SSE实现的MCP服务器,支持通过JSON-RPC协议与LLM客户端进行上下文信息和功能交互。

SearxNG MCP桥接服务器

一个MCP服务器,桥接SearxNG搜索引擎,为LLM客户端提供搜索工具。

PlanetScale CLI MCP Server

PlanetScale CLI 内置的 MCP 服务器,为 AI 工具提供数据库上下文访问能力。

Tailor MCP 服务器安装器

用于安装和配置 Tailor 平台的 MCP 服务器,提供资源管理、工具调用和 Prompt 模板等核心 MCP 功能,支持 LLM 应用构建。

Magic UI MCP Server

Magic UI MCP Server 通过 Model Context Protocol 协议,为 LLM 客户端提供访问 Magic UI 组件信息的接口,辅助 AI 助手理解和应用 Magic UI 组件库。

Docs MCP Server

灵活的MCP服务器,支持AI助手搜索文档和代码库,由Probe搜索引擎驱动。

Revvy Weather Tools Server

Revvy项目中的天气信息工具MCP服务器,为LLM客户端提供日本天气警报和全球天气预报工具。

Search MCP Server

基于MCP协议实现的服务器,提供网页搜索和相似内容查找工具,增强LLM应用上下文能力。

TextQL MCP服务器

TextQL MCP服务器是一个独立的MCP服务器实现,它提供将自然语言转换为`*`QL查询并执行`*`QL查询的工具,支持SQL和GraphQL数据库。

SupaMCP服务器

SupaMCP是一个跨平台的Model Context Protocol (MCP) 服务器实现,用C语言编写,支持资源和工具管理,并可作为网关路由请求。

Troubleshoot MCP Server

Troubleshoot MCP Server 是一个基于 Model Context Protocol 的后端应用,专注于为 AI 模型提供 Kubernetes 支持包的上下文信息和故障排除能力。

FileSystem-MCP Server

提供文件系统访问能力的MCP服务器,支持LLM通过工具安全地读取、写入和搜索文件。

go-mcp SDK

go-mcp SDK 是一个 Go 语言工具包,旨在简化 Model Context Protocol (MCP) 服务器的开发,提供类型安全、直观的接口来构建高效的上下文服务后端。

Easy MCP Server Framework

一个轻量级的MCP服务器框架,用于快速构建和部署支持LLM应用的工具服务器。

MCP文档搜索服务器

MCPDocSearch是一个MCP服务器,它通过爬取网站文档并建立语义索引,为LLM客户端提供文档检索能力,支持Cursor等MCP客户端集成。

Taiga MCP Bridge

Taiga MCP Bridge 是一个连接 Taiga 项目管理平台和 MCP 协议的桥梁,旨在为 AI 工具提供项目上下文和操作能力。

Agentic MCP Server Examples

演示了基于Model Context Protocol的服务器实现,提供通过Stdio和SSE协议与LLM客户端交互的示例,包括工具注册和执行。

MCP Python SSE Server

基于Python和SSE实现的MCP服务器,提供实时的LLM上下文服务和工具调用能力。

数据库MCP服务器

一个MCP服务器,允许LLM客户端通过工具访问和操作SQLite和SQL Server数据库,提供数据库上下文信息。

MCP服务器平台

基于FastAPI构建的MCP服务器,提供资源管理、工具注册和SSE通信能力,为LLM应用提供上下文服务。

天气服务器示例

基于MCP协议构建的天气信息服务器,提供天气预报和气象警报查询功能。

Okta MCP Server

Okta MCP Server 是一个基于 Model Context Protocol 的应用后端,旨在使 AI 模型能够安全访问和管理 Okta 环境,为 IAM 和安全团队提供强大的上下文服务能力。

SolidPilot MCP Server

SolidPilot MCP Server 是一个基于 MCP 协议的服务器,专注于为 SolidWorks 提供上下文服务,支持 LLM 理解和操作 SolidWorks 设计。

维基百科MCP服务器

一个基于Model Context Protocol的服务器,提供访问维基百科信息的工具和资源,增强LLM的知识检索能力。

Delphi MCP天气服务器

基于Delphi实现的MCP服务器示例,演示如何向LLM客户端提供天气数据上下文信息。

MCP Lite

MCP Lite 是一个基于 Ruby 开发的轻量级模型上下文协议(MCP)服务器实现,旨在为 LLM 应用提供高效、可扩展的上下文服务框架。

aiohttp-mcp

用于构建基于 aiohttp 的 Model Context Protocol (MCP) 服务器的工具库,支持资源、工具和 Prompt 管理。

MCP Server Example (ai-playground)

基于ai-playground仓库的MCP服务器示例,提供加法工具,演示MCP服务器的基本功能。

GitMCP

将GitHub项目转换为可通过MCP访问的文档中心,使AI工具能够获取最新的代码和文档。

MIR AI 算法评估自动改进 MCP 服务器

基于 Model Context Protocol (MCP) 的 MIR 算法评估和自动改进服务器,提供资源、工具和 Prompt 模板管理,支持 AI 驱动的算法自动优化。

Botanika Desktop MCP服务器

Botanika Desktop内置MCP服务器,为本地LLM客户端提供工具和上下文服务,支持Google搜索、Spotify等功能集成。

Scaled MCP Server

基于Go语言实现的、可水平扩展的MCP服务器,为LLM应用提供资源、工具和Prompt模板管理等核心上下文服务。

MCP Server Templates (.NET)

基于 .NET 的 MCP 服务器模板,帮助开发者快速构建和部署符合 Model Context Protocol 规范的后端服务。

Talkverse.ai AI 聊天机器人平台

基于Next.js构建的AI聊天机器人平台,集成了Model Context Protocol (MCP) 功能,提供资源访问和工具执行能力。

C++ MCP Server

基于插件化架构的C++ MCP服务器实现,支持资源、Prompt和工具扩展,通过标准输入输出流与客户端通信。

Prisma MCP Server

Prisma MCP 服务器为 AI 智能体提供数据库管理能力,允许通过 Model Context Protocol 管理 Prisma Postgres 数据库。

MCP脚本示例服务器

该仓库提供了一系列基于FastMCP框架构建的示例MCP服务器,演示了如何通过工具和资源扩展LLM应用的功能。

MCP4Go

MCP4Go 是一个用 Go 语言实现的 MCP 服务器,它提供资源、工具和 Prompt 管理功能,简化 AI 应用的开发。

Anon Kode

Anon Kode是一个终端AI编码工具,同时也是一个有效的MCP服务器实现,可以为LLM客户端提供代码上下文和工具能力。

ChatData MCP 服务器

提供工具和提示的MCP服务器,扩展大型语言模型能力,支持多种工具和提示模板,简化LLM应用开发。

Letta MCP服务器

Letta MCP服务器是一个基于Model Context Protocol的后端实现,旨在为LLM客户端提供资源管理、工具执行和Prompt模板服务,构建安全可扩展的上下文服务框架。

Base Builder MCP

Base Builder MCP 是一个 MCP 服务器,旨在为 LLM 客户端提供 Base 文档的访问能力,辅助开发者在 Base 区块链上进行构建。

MCP DeepSeek演示服务器

基于MCP协议实现的SSE服务器,集成DeepSeek模型,提供产品、库存、文件等工具调用能力。

Canvas MCP Server

Canvas MCP 服务器为 AI 助手提供访问 Canvas LMS 内容的桥梁,简化课程信息查询和管理。

Vapi MCP 服务器

Vapi MCP 服务器是一个基于 Model Context Protocol 构建的应用后端,通过集成 Vapi API,为 LLM 应用提供助手、电话呼叫和电话号码管理等功能。

Dust MCP Server

一个简单的 MCP 服务器示例,提供了一个名为 "dust" 的工具用于演示。

FlexPrice MCP Server

FlexPrice MCP Server是一个为AI Agent设计的MCP服务器,可以高效访问FlexPrice的发票和客户数据。

Ragflow MCP服务器

基于MCP协议的RAGFlow集成服务器,提供知识库管理、文档上传和问答等工具,简化LLM应用开发。

Google Cloud Healthcare API MCP服务器

基于MCP协议,为LLM客户端提供访问Google Cloud Healthcare API和公共医疗研究API的医疗健康工具。

Netbird MCP Server

Netbird MCP Server 是一个 MCP 服务器实现,它将 Netbird 网络管理平台的数据和功能通过 Model Context Protocol 桥接到 LLM 应用,实现基于 Netbird 信息的智能问答和自动化操作。

MCP工具服务器

通过MCP协议为LLM客户端提供网页搜索和网页访问工具的服务器,扩展LLM应用的功能。

Simple Python MCP服务器

一个使用Python实现的简单但功能完备的MCP服务器,支持工具注册和调用,并提供时间工具示例。

nix-mcp-servers

提供多种预配置的MCP服务器 Nix 包,方便用户快速部署和使用,扩展 LLM 应用的功能。

MCP Lambda Server

基于AWS Lambda的MCP服务器实现,通过Server-Sent Events (SSE) 提供实时的上下文服务,支持工具、资源和Prompt管理。

Godot RAG MCP Server

一个基于MCP协议的服务器,为Godot RAG模型提供Godot引擎文档的上下文检索工具。

MySQL数据库操作MCP服务器

一个基于MCP协议实现的MySQL数据库操作服务器,支持通过工具执行SQL查询、获取表结构信息等,为LLM应用提供数据库交互能力。

Untappd MCP 服务器 (.NET Azure Functions)

基于 Azure Functions 构建的 Untappd MCP 服务器,为 LLM 应用提供啤酒信息查询等上下文服务。

QueryPie MCP Server

QueryPie MCP Server为LLM应用提供数据访问和工具能力,通过标准MCP协议与客户端通信。

MCP天气聊天机器人

一个基于MCP协议构建的聊天机器人,通过天气服务工具为用户提供实时天气查询功能。

Langchain NestJS MCP示例服务器

基于Langchain和NestJS构建的MCP服务器示例,演示了如何使用MCP协议提供上下文信息和工具能力。

aio_mcp_exe 服务器集合

提供开箱即用的 MCP 服务器可执行文件,简化 LLM 应用的上下文服务部署。

cpp-mcp 框架

cpp-mcp 框架是一个用 C++ 编写的 MCP 服务器实现,提供资源管理、工具注册和 Prompt 模板等核心功能,并通过 JSON-RPC 协议与客户端通信。

MySQL数据库MCP服务器

一个基于MCP协议的MySQL数据库操作服务器,为LLM客户端提供数据库查询、表结构获取等工具能力。

Next.js MCP服务器示例

基于Next.js构建的MCP服务器示例,提供资源管理、工具注册和Prompt模板功能,支持LLM应用获取上下文信息和调用外部功能。

Hummingbird MCP示例服务器

基于Swift Hummingbird框架构建的MCP服务器示例,演示了如何使用Swift SDK实现MCP协议,提供资源管理、工具调用和Prompt模板服务。

MCP Gemini Server

封装Google Gemini API的MCP服务器,通过标准化的MCP工具接口,为LLM客户端提供Gemini模型的各项能力。

QA Sphere MCP 服务器

连接 QA Sphere 测试管理系统的 MCP 服务器,为 LLM 提供测试用例和项目信息,实现智能测试辅助。

AnyAgent:Agent框架统一与MCP集成库

AnyAgent是一个Python库,旨在统一多种Agent框架的接口,并支持Model Context Protocol (MCP) 服务器的集成,为LLM应用提供灵活的工具和上下文管理能力。

Autochat MCP Server示例 (基于FastMCP的示例服务器)

Autochat项目提供的MCP服务器示例,展示如何通过FastMCP框架构建和运行MCP服务器,为Autochat智能体提供资源和工具。

Wiki-RAG MCP服务器

Wiki-RAG MCP服务器基于Model Context Protocol,为LLM应用提供Mediawiki知识库的上下文服务,支持资源访问、工具调用和Prompt模板定制。

代码扫描服务器

该项目是一个MCP服务器,用于扫描代码库,提取代码定义,并以LLM友好的格式提供代码结构信息,辅助LLM理解代码上下文。

宝可梦 MCP 服务器

一个基于Model Context Protocol (MCP) 的服务器,提供访问宝可梦数据的工具,例如获取宝可梦信息、类型信息、技能和特性等,用于增强LLM的宝可梦知识。

PDF阅读器MCP服务器

基于Model Context Protocol的PDF阅读服务器,提供在项目根目录下安全读取本地或远程PDF文件的能力。

Gen AI Toolbox for Databases

Gen AI Toolbox for Databases 是一个开源服务器,旨在简化构建用于数据库交互的 Gen AI 工具,为 LLM 应用提供安全、可扩展的上下文服务框架。

MCP PHP SDK

PHP SDK,用于构建 MCP 服务器和客户端,为 LLM 应用提供标准化的上下文服务框架,支持资源、工具和 Prompt 管理。

MCPServerKit Swift框架

MCPServerKit是一个Swift框架,用于简化构建Model Context Protocol (MCP) 服务器的过程,专注于工具创建和集成。

Browser MCP Server

Browser MCP Server是一个基于Model Context Protocol的服务器实现,专注于为LLM提供浏览器上下文和操作能力,例如网页快照、元素点击、页面导航等工具。

MCP Boilerplate Server

基于Bun构建的MCP服务器脚手架,提供资源、工具和Prompt模板管理功能,支持SSE协议,快速搭建LLM应用后端。

Design System MCP Server

一个基于 Model Context Protocol 的服务器,用于提供设计系统的组件属性和设计令牌信息,支持 LLM 应用获取设计上下文。

Nerve Agent Server

Nerve Agent Server是一个用于运行LLM Agent并将其功能作为MCP兼容服务对外提供的平台,方便与MCP客户端集成。

Paper Search MCP

Paper Search MCP 是一款 MCP 服务器,为 LLM 提供学术论文的搜索、下载和内容读取工具,支持 arXiv、PubMed、bioRxiv 和 Google Scholar 等多个平台。

Binary Ninja MCP 服务器插件

一个 Binary Ninja 插件,提供 MCP 服务器功能,通过 HTTP 接口与 LLM 集成,为 LLM 应用提供上下文服务。

AgentX平台

AgentX平台是一个基于MCP协议构建的智能对话系统,旨在提供资源、工具和Prompt模板管理等核心上下文服务。

MediaWiki MCP Server

一个基于 Python 开发的 MCP 服务器,旨在为 LLM 应用提供便捷的 MediaWiki 知识库访问能力,支持资源管理、数据访问和 Prompt 模板。

lumo

Rust实现的自主Agent框架,支持MCP协议,提供资源、工具和Prompt模板管理,可作为LLM上下文服务器。

Codex MCP Server

Codex MCP Server是一个为LLM应用提供区块链数据上下文服务的工具,通过MCP协议提供Codex平台丰富的链上数据查询和分析能力。

Infactory MCP Server

基于MCP协议的Infactory API桥接服务,为LLM提供访问和操作Infactory平台数据的能力。

MegaTool MCP Servers

MegaTool 是一个命令行工具,提供多种基于 Model Context Protocol (MCP) 的服务器实现,包括计算器、GitHub信息访问和包版本检查等功能。

AutoMCP

AutoMCP 是一个轻量级、可配置的 Model Context Protocol (MCP) 服务器实现,用于构建 LLM 应用的上下文服务后端。

PG-MCP Server

PostgreSQL MCP Server为AI Agent提供数据库访问和上下文信息,支持多数据库连接、模式发现、查询工具和扩展信息。

Universal MCP

Universal MCP是一个中间件,作为MCP服务器为API应用提供统一的上下文访问、工具注册和Prompt模板服务。

Mcptix工单系统

Mcptix是一款轻量级工单跟踪系统,集成了AI助手,通过Model Context Protocol (MCP) 协议为AI客户端提供结构化上下文信息,辅助AI助手理解和操作工单。

Browser MCP

Browser MCP 是一个浏览器扩展和 MCP 服务器,允许 LLM 应用与用户正在使用的浏览器进行交互,提供网页内容获取、样式修改、历史记录查询等工具。

MCPO服务器Docker部署

提供Docker镜像,简化MCPO服务器的部署和运行,并将其暴露为OpenAPI兼容的HTTP端点,方便LLM应用集成。

HireBase MCP服务器

连接 HireBase API 的 MCP 服务器,提供职位搜索工具和求职助手 Prompt,方便 LLM 应用集成职位信息。

VNDB上下文服务器

基于MCP协议的VNDB服务器,为LLM提供视觉小说数据库的访问能力。

Awesome MCP Servers示例集

本仓库提供了一系列示例性的 MCP 服务器,演示了如何为 LLM 应用构建提供上下文信息和外部工具支持的后端服务。

Box MCP Server

基于MCP协议,此Python项目作为服务器,集成Box API,提供文件搜索、内容读取、AI能力等工具,为LLM应用提供Box云存储的上下文服务。

CrateDB MCP 服务器

CrateDB MCP Server 是一个基于 Model Context Protocol 的服务器实现,旨在为 LLM 提供 CrateDB 数据库的上下文访问和操作能力。

MediaWiki MCP Server

一个MCP服务器,允许LLM客户端通过Wikipedia API检索和搜索维基百科内容,作为LLM的上下文信息来源。

Weather MCP Server

一个简单的MCP服务器,提供天气警报和预报工具,供LLM客户端调用获取天气信息。

MCPEngine

生产级MCP服务器实现,提供HTTP优先的设计、OAuth鉴权和可扩展架构,赋能LLM应用。

Agentical框架

Agentical是一个Python框架,用于构建基于MCP协议的LLM应用,提供工具集成、多服务器连接和灵活配置等功能。

Quarkus Agentic MCP Server

基于Quarkus和MCP协议构建的智能助手应用后端,集成多种工具,提供上下文服务。

MCP浏览器工具套件

MCP浏览器工具套件是一个MCP服务器,旨在为LLM客户端提供浏览器交互能力,使其能够获取网页信息、控制网页元素。

Hello MCP Go Server

使用 Go 语言构建的 MCP 服务器示例,提供工具、Prompt 和资源管理功能,用于扩展 LLM 应用能力。

MCP Servers

提供Bun和Python两种语言实现的MCP服务器示例,用于演示如何构建和运行支持资源与工具管理的MCP后端服务。

B站API MCP服务器

一个基于MCP协议的服务器,旨在为LLM应用提供B站API的工具和数据资源访问能力。

MCP Rust Stdio服务器示例

基于Rust开发的MCP服务器基础实现,通过标准输入输出(stdio)进行通信,演示资源、工具和Prompt列表及工具调用功能。

MCP服务器模板

这是一个用于快速搭建MCP服务器的模板项目,预置了工具注册和调用示例,方便开发者快速上手构建自己的LLM应用后端。

Saiku MCP服务器

Saiku MCP服务器是基于Model Context Protocol的后端实现,旨在为LLM客户端提供资源、工具和Prompt模板管理等核心上下文服务。

OpenSumi 核心框架

用于快速构建AI原生IDE产品的框架,可作为MCP服务器为LLM客户端提供上下文服务。

文件系统MCP服务器

提供安全的本地文件系统访问的MCP服务器,允许LLM客户端在预定义目录下进行文件读写、编辑和管理操作。

Boot-MCP服务器模板

基于TypeScript的MCP服务器启动器模板,提供资源、工具、Prompt等核心功能的基础框架。

Python MCP Server模板

一个用于构建MCP服务器的最小Python模板,提供工具注册和基础服务器框架,方便快速搭建MCP应用后端。

MCP Java 8 SDK (基于Spring WebMVC)

MCP Java SDK 针对Java 8和Spring Boot 2.x环境优化,提供基于Spring WebMVC的MCP服务器实现,简化LLM应用后端开发。

Claude Crew

Claude Crew 是一个 MCP 服务器,旨在通过为 Claude Desktop 提供项目专属的上下文和工具,创建自主编码智能体。

MCP Teams Server

一个基于MCP协议的服务器,用于集成Microsoft Teams,提供消息读取、发送和成员管理等工具,为LLM应用提供Teams上下文服务。

Chuck Norris MCP Server

Chuck Norris MCP Server是一个实验性的工具,通过 Model Context Protocol (MCP) 接口,为大型语言模型 (LLM) 提供增强能力 (Jailbreak) 的 Prompt。

Sprout MCP Server Demo

演示食谱和天气信息MCP服务器,提供资源管理、工具执行和Prompt模板渲染,为LLM应用提供上下文服务。

Wandering RAG

Wandering RAG是一个个人知识库RAG工具,它将本地Markdown文档、Notion笔记等数据存入向量数据库,并以MCP服务器形式对外提供知识检索和存储能力,为LLM应用提供个人化上下文服务。

Zed GitHub MCP服务器扩展

为 Zed 编辑器提供 GitHub MCP 服务器扩展,连接 GitHub 数据作为上下文信息,支持代码仓库浏览和问题追踪。

Phrases MCP Server

一个简单的MCP服务器,用于管理励志短语,允许LLM客户端访问和操作短语数据。

MCP 画板示例服务器

基于MCP协议实现的绘图工具服务器,提供画笔、橡皮擦、颜色选择等工具,并支持获取画布图像。

llm-functions 函数工具服务器

一个基于Model Context Protocol (MCP) 的函数工具服务器,支持注册、执行多种编程语言编写的工具函数,并通过HTTP桥接扩展工具能力。

Blaxel Python SDK (MCP Server)

Blaxel Python SDK 提供了一套用于构建和部署 MCP 服务器的工具,旨在简化大型语言模型(LLM)与外部上下文和功能集成的过程。

MCP Inscription Server

一个MCP服务器,使AI模型能够与比特币Ordinals铭文互动,展示交易中的铭文内容,支持文本、图片等多种格式。

Korea-integrated MCP Server (KiMCP)

KiMCP是一个MCP服务器,旨在为LLM应用提供对韩国API(如Naver搜索)的便捷访问能力,扩展LLM在韩语内容上的信息检索和工具调用能力。

MCP日志分析服务器

一款专为分析和调试MCP日志设计的服务器,支持Claude等LLM客户端访问和查询日志,辅助开发者排查集成问题。

ChatDM

ChatDM是一个基于Spring AI MCP的D&D游戏辅助工具,为LLM客户端提供游戏上下文、骰子、预言等功能,提升AI游戏体验。

MCP服务器TypeScript模板

基于TypeScript的MCP服务器模板,演示如何构建具备工具调用和上下文功能的LLM后端应用。

Cosmos DB MCP Server

基于Model Context Protocol构建的MCP服务器,连接Azure Cosmos DB,提供产品搜索和订单查询等上下文信息服务,支持LLM客户端通过工具调用访问Cosmos DB数据。

Symfony MCP工具服务器Bundle

基于Symfony框架构建MCP服务器,专注于通过STDIO和SSE协议向LLM客户端提供工具能力。

OKR Manager MCP Server

基于MCP协议的OKR管理服务器,集成Stytch B2B认证,为AI agent提供结构化OKR数据访问和管理工具。

MCPHub - 多MCP服务器统一管理中心

MCPHub是一个统一的中心服务器,用于管理和整合多个MCP服务器,提供集中的访问入口和管理界面。

MCP C# Hello World服务器示例

基于C#和Model Context Protocol SDK构建的简单MCP服务器示例,演示了如何注册和调用工具。

D语言 MCP 服务器库 (mcp-d)

这是一个使用D语言编写的MCP服务器库,专注于通过stdio传输协议为AI语言模型提供上下文信息、工具和Prompt服务。

Adonis MCP

基于 AdonisJS 框架的 Model Context Protocol (MCP) 服务器 SDK,通过 Server-Sent Events (SSE) 协议提供资源、工具和 Prompt 服务。

LTM-CLINE

LTM-CLINE 是一个为 Claude 3.7 设计的 MCP 服务器,提供长期记忆和人格演变功能,增强其上下文理解和对话能力。

漫威MCP服务器

一个基于Model Context Protocol的服务器,通过工具提供漫威漫画和角色数据的访问能力,并支持生成HTML展示页面。

Turbo Developer MCP Server

为Cursor IDE提供工具和服务的MCP服务器,集成到Ultra Wide Turbo Workspace中,支持工具列表和README文件读取。

Lite MCP for Javascript

轻量级 Javascript MCP 服务器及客户端 SDK,专注于 SSE 传输,简化 AI Agent 上下文服务搭建。

EasyMCP Server模板

基于 Swift 语言的 MCP 服务器模板,提供基础框架和示例代码,帮助开发者快速构建自定义 MCP 服务器。

MCP RSS新闻爬虫服务器

一个MCP服务器,通过抓取和管理RSS订阅源及网页内容,为LLM提供最新的新闻资讯和文章作为上下文信息。

TPC Server

TPC Server是一个基于Model Context Protocol (MCP) 的应用后端,用于记录软件开发过程中的想法、计划和变更日志,为AI编码助手等工具提供结构化上下文信息。

Limitless MCP 服务器

一个连接 Limitless API 和大语言模型 (LLM) 的 MCP 服务器,提供个人 Lifelog 数据的上下文访问能力。

Hana Compass API

为电子病历(EHR)集成和医学研究提供统一API和MCP服务器,简化医疗数据访问和功能调用。

FalkorDB MCP 服务器

FalkorDB MCP 服务器是一个基于 Model Context Protocol 的后端应用,旨在为 LLM 客户端提供与 FalkorDB 图数据库交互的上下文信息服务。

BeeMCP

BeeMCP服务器桥接Bee设备数据至LLM,提供个人数据上下文访问能力。

SpiceDB MCP Server

SpiceDB MCP Server 是一个基于 Model Context Protocol 的服务器实现,它将 SpiceDB 权限管理系统连接到 LLM,提供访问控制和审计相关的上下文信息。

Turbo Developer MCP Server

为Cursor IDE提供工具和服务的MCP服务器,支持列出工具和读取项目README文件,增强AI助手集成。

eino-mcp 时间工具服务器

基于MCP协议实现的当前时间工具服务器,支持通过标准化的方式向LLM客户端提供当前时间信息。

Godot RAG MCP服务器

一个基于MCP协议的RAG服务器,用于为LLM提供Godot引擎相关的上下文信息,通过查询本地ChromaDB数据库检索文档片段。

Gaia-X企业级AI应用平台

Gaia-X是新一代企业AI应用平台,内置MCP协议支持,提供资源、工具和Prompt模板管理,为企业级LLM应用提供安全可扩展的上下文服务框架。

Spring AI MCP示例服务器

基于Spring AI框架构建的MCP服务器示例,演示如何快速搭建MCP服务后端。

Activepieces

Activepieces是一个开源的AI自动化平台,可以作为MCP服务器,为LLM客户端提供资源和工具集成能力。

Cortex

Cortex 是一个 Golang 库,用于声明式地构建 Model Context Protocol (MCP) 服务器,简化 LLM 应用的后端开发。

Patche MCP Server

Patche MCP Server 是一个基于 Model Context Protocol 的应用后端,为 LLM 客户端提供补丁管理工具,支持查看配置、列出补丁、显示补丁内容和应用补丁等功能。

IMAP MCP服务器

IMAP MCP服务器是一个基于Model Context Protocol的应用后端,使AI助手能够安全地访问和处理电子邮件,实现智能邮件管理功能。

Chroma MCP Server

Chroma MCP Server 是一个基于 Model Context Protocol 构建的应用后端,为 ChromaDB 向量数据库提供标准化的上下文信息和功能接口,支持资源管理、工具注册和 Prompt 模板渲染。

gumloop MCP Server

gumloop MCP Server 是一个模块化的 Model Context Protocol (MCP) 服务器实现,支持多种服务集成,为 LLM 应用提供上下文服务。

Koding.js MCP服务器

Koding.js MCP服务器是一个基于Node.js实现的Model Context Protocol (MCP) 服务器,它提供资源管理和工具执行能力,通过JSON-RPC协议与LLM客户端进行通信。

PG-MCP PostgreSQL服务器

一个基于Model Context Protocol协议的PostgreSQL数据库MCP服务器,为AI Agent提供数据库上下文访问能力。

Limitless Lifelog MCP服务器

本服务器作为MCP应用后端,为AI客户端提供Limitless Pendant记录的Lifelog数据访问和搜索功能,支持通过标准化的MCP协议与Claude等AI工具集成。

Spring AI MCP Server示例

基于Spring AI和AWS Bedrock构建的MCP服务器示例,演示了如何管理资源、执行工具并与LLM进行交互。

MCP Router

MCP Router是一个MCP协议代理服务器,用于管理和路由客户端与后端MCP服务器的连接,简化MCP客户端集成。

Task Master MCP Server

Task Master MCP Server是一个基于Model Context Protocol (MCP) 的服务器实现,旨在为LLM客户端提供结构化的AI驱动开发任务管理能力。

Nest MCP SSE 模块

基于 NestJS 快速构建支持 SSE 传输的 MCP 服务器,简化 MCP Tool 开发和服务器管理。

Qwen-Agent MCP 服务器

Qwen-Agent 框架的 MCP 服务器组件,提供资源管理、工具注册和 Prompt 模板渲染等 MCP 协议核心功能,为 LLM 应用提供上下文服务。

Mattermost MCP 服务器

Mattermost MCP 服务器是一个基于 Model Context Protocol (MCP) 的应用后端,旨在将 Mattermost 平台的消息数据作为上下文信息,以标准化的方式提供给 LLM 客户端。

Oracle数据库上下文MCP服务器

一个MCP服务器,为LLM应用提供Oracle数据库的上下文信息,支持智能数据库schema查询和管理,优化AI与大型Oracle数据库的交互。

DocGen MCP服务器

DocGen MCP服务器是基于Model Context Protocol的应用后端,提供文档生成、GitHub集成和工作流编排等上下文服务。

可信模型上下文协议(MCP)服务器

一个支持远程证明的MCP服务器实现,专注于在可信执行环境(TEE)中运行并提供安全可靠的上下文服务。

FileScopeMCP:代码库文件分析与理解服务器

FileScopeMCP 是一个 MCP 服务器,通过分析代码库文件依赖关系和重要性,为 LLM 应用提供代码上下文信息,并支持文件摘要和可视化。

MCP Server示例项目

基于Model Context Protocol的服务端实现,提供天气查询和GitHub信息查询工具,增强LLM应用的功能。

MCP Web Search Server

基于MCP协议的Web搜索和网页内容提取工具服务器,为LLM应用提供联网和信息提取能力。

MCP Server Dart插件

一个Dart语言开发的MCP服务器插件,用于构建支持资源、工具和Prompt的LLM应用后端,提供Stdio和SSE等多种传输协议。

Deno MCP服务器模板

基于Deno构建的MCP服务器模板,用于快速搭建支持资源、工具和Prompt的LLM应用后端。

浏览器控制 MCP 服务器

通过 MCP 协议,本服务器允许 LLM 客户端控制用户的本地浏览器,提供网页内容、历史记录和标签页管理等功能。

OpenAgents MCP服务器

OpenAgents MCP服务器是为AI Agent设计的远程上下文服务,集成GitHub工具,提供资源管理、工具调用和Prompt模板等功能。

Twilio MCP Server

基于 OpenAPI 规范,将 Twilio API 转换为 Model Context Protocol (MCP) 服务器,为 LLM 应用提供 Twilio API 工具。

Laravel MCP Server

基于Laravel框架实现的Model Context Protocol (MCP) 服务器,提供资源管理和工具调用功能,用于连接LLM客户端。

Auto-MCP服务器构建工具

Auto-MCP是一个工具,旨在简化MCP服务器的创建,通过自动化转换函数、工具和代理为符合MCP协议的服务端,加速LLM应用开发。

MCP邮件服务器

该项目是一个MCP服务器,为LLM提供发送邮件和搜索本地文件作为附件的功能,扩展了LLM的邮件处理能力。

Db2 for i MCP Server

基于MCP协议的服务器,为LLM应用提供IBM Db2 for i数据库的上下文访问和工具能力。

MCP Host Framework

一个灵活可扩展的MCP服务器框架,用于构建模块化、分布式的工具和服务生态系统,为LLM应用提供上下文服务。

Sudoku Solver MCP Server

一个基于MCP协议的服务器,提供笔记和数独谜题管理功能,支持添加笔记、数独谜题,以及求解数独和总结笔记等工具。

ModelContextProtocol.jl

ModelContextProtocol.jl 是一个用 Julia 语言实现的 MCP 服务器,旨在为大型语言模型提供标准化的上下文信息和功能访问能力。

Basic Memory

Basic Memory是一个本地优先的知识库,使用Markdown文件和模型上下文协议(MCP),使LLM能够通过对话构建持久化的知识。

Time MCP Server (PHP)

提供基于PHP实现的MCP服务器,用于获取当前时间和进行时区转换,为LLM应用提供时间上下文信息。

Deco MCP Server

将Deco网站转换为MCP服务器,为LLM客户端提供上下文信息和工具能力。

Smithery MCP Server Framework

Smithery MCP Server Framework 是一个用于构建 Model Context Protocol (MCP) 服务器的 Typescript 框架,专注于简化工具、资源和 Prompt 的集成与管理。

Docs MCP Server

用于抓取、索引和搜索第三方软件包文档的 MCP 服务器,为 LLM 应用提供上下文信息。

Ragie TypeScript MCP服务器

Ragie TypeScript MCP服务器是一个基于Model Context Protocol的应用后端,为LLM应用提供资源管理、工具注册和Prompt模板服务。

SeaTunnel MCP Server

为LLM应用提供SeaTunnel数据集成平台的上下文服务,支持作业管理、系统监控和动态连接配置。

Chrome MCP Server

通过 Chrome DevTools 协议控制 Chrome 浏览器实例的 MCP 服务器,为 LLM 提供浏览器自动化工具。

Croft MCP Server

Croft MCP Server 是一个基于 Laravel 框架构建的 MCP 服务器,旨在为 AI 编程助手提供上下文信息和工具支持。

MCP代理服务器

MCP代理服务器将多个MCP资源服务器聚合成一个统一的HTTP入口,为LLM客户端提供工具、Prompt和资源的统一访问服务。

OpenResponses API

OpenResponses API 统一了多种 LLM 提供商的接口,并集成了工具支持,简化了 LLM 应用开发,提升了应用功能。

Spring AI MCP Server示例

基于Spring AI框架构建的MCP服务器示例,用于演示如何为LLM应用提供上下文服务,包括资源管理、工具调用和Prompt模板渲染等核心功能。

Ashra MCP Server

一个为 Ashra 提供 Prompt 创建功能的 MCP 服务器,允许 LLM 客户端通过标准协议调用 Ashra API 创建 Prompt。

德国联邦议院MCP服务器

通过MCP协议为LLM客户端提供德国联邦议院会议记录的访问能力,支持查询最新会议记录。

Google Chat MCP服务器

基于FastMCP框架,集成Google Chat API的MCP服务器,提供访问和管理Google Chat消息的功能。

MCP示例服务器

该仓库提供了一个基于FastMCP框架构建的MCP服务器示例,包含天气查询和智能灯光控制工具,演示了如何扩展LLM应用的功能。

Deepin MCP Python 服务器示例

基于Python实现的MCP协议服务器示例,包含天气、文件和Bash命令工具,可与MCP客户端连接并提供上下文服务。

MCP工具实验服务器

一个用于实验和理解MCP协议的服务器,提供工具、资源和Prompt模板,支持LLM工具调用。

Morph Cloud MCP 开发工具箱示例

本仓库提供了一套示例脚本,用于在 Morph Cloud 上快速搭建和部署 Model Context Protocol (MCP) 服务器的开发环境,并包含客户端示例。

Ghidra MCP Server Plugin

基于Ghidra的MCP服务器插件,通过Model Context Protocol (MCP) 协议将Ghidra的程序分析能力开放给LLM客户端。

Claude Kubernetes MCP Server

基于Kubernetes和GitOps的MCP服务器,利用Claude AI提供智能运维和故障排查能力。

Dust Agent MCP 服务器

一个连接 Dust.tt 智能体平台的 MCP 服务器,通过 MCP 接口对外提供 Dust AI 智能体的能力。

Open Manus

Open Manus 是一个开源框架,旨在构建类似 MCP 服务器的功能,为 AI 代理提供工具、资源和 Prompt 管理,提升企业级 AI 应用的上下文处理能力。

MySQL MCP Server

MySQL MCP Server 提供对 MySQL 数据库的只读访问,使 LLM 能够查询数据库模式和执行 SQL 查询以获取上下文信息。

MCP Oats: OpenAPI 工具服务器

基于MCP协议,将OpenAPI规范转换为可调用的工具,为LLM应用提供API访问能力。

OracleDB MCP Server

通过Model Context Protocol,为LLM应用提供Oracle数据库的上下文信息和SQL执行能力。

B12 MCP Server

B12 MCP Server是一个为AI驱动的网站生成应用提供上下文和工具支持的后端服务。

TMDB电影搜索MCP服务器

一个基于Model Context Protocol (MCP) 的服务器,提供通过TMDB API搜索电影信息的功能,方便AI助手集成电影数据。

World Mini App 文档 MCP 服务器

该项目是一个 MCP 服务器,用于查询 World Mini App 文档,并提供文档全文资源和文档检索工具,方便 LLM 应用集成 World Mini App 相关知识。

Dev Kit

Dev Kit 是一个 MCP 服务器,旨在通过集成 Jira、Confluence、GitLab 和 GitHub 等开发工具,增强 AI 模型的能力,实现开发工作流程的自动化。

RAG Kit MCP Server

RAG Kit MCP Server是一个基于Model Context Protocol的服务器,专注于为LLM应用提供检索增强生成(RAG)能力,通过工具化接口访问向量数据库,实现高效的知识检索和上下文管理。

MCP Server for Oracle数据库

一个基于Model Context Protocol的服务器,用于连接和查询Oracle数据库,为LLM应用提供数据访问能力。

Hyperf MCP Server

基于 Hyperf 框架实现的模型上下文协议 (MCP) 服务器,支持通过 SSE 协议与 LLM 客户端通信,提供工具注册、调用等核心 MCP 功能。

Dart MCP服务器库

mcp_dart 是一个 Dart 库,用于构建 MCP 服务器,旨在为 LLM 应用提供标准化的上下文数据和工具能力。

GitHub Enterprise MCP Server Connector

连接GitHub Enterprise的MCP服务器,为LLM应用提供代码仓库、议题和工作流等上下文信息访问能力。

MCP工具助手示例

本仓库提供了一个基于MCP协议的工具助手示例,包含MCP服务器和客户端实现,展示如何通过MCP连接LLM与外部工具。

简易笔记MCP服务器

这是一个基于Model Context Protocol协议的简单笔记服务器,允许通过工具创建和管理文本笔记。

1MCP Agent

1MCP Agent 统一管理多个 MCP 服务器,为 LLM 应用提供统一的上下文服务入口,简化配置和资源管理。

Bhanus:MCP-vLLM集成系统

Bhanus是一个将MCP协议与vLLM集成的生产级系统,旨在高效地为LLM应用提供上下文服务和工具执行能力。

mcp

用于构建 Model Context Protocol (MCP) 服务器的 Rust 库,提供标准化的 AI 模型上下文交换能力。

Nostr MCP Server

一个MCP服务器,为LLM提供访问Nostr网络的功能,例如获取用户资料、帖子和闪电支付信息。

OWL API Server

基于FastAPI构建的OWL多智能体系统后端,提供RESTful API和WebSocket接口,用于上下文服务。

LongPort OpenAPI MCP服务器

基于LongPort OpenAPI构建的MCP服务器,为LLM应用提供股票交易和行情数据上下文服务,支持资源管理、工具注册和Prompt模板渲染。

StrawMCP Dart SDK

StrawMCP Dart SDK 提供 MCP 协议的 Dart 实现,用于构建 LLM 应用的上下文服务后端。

mcpz CLI (MCP服务器执行器)

mcpz CLI 是一个用于管理和运行 Model Context Protocol (MCP) 服务器的命令行工具,支持服务器配置、分组管理和灵活的启动选项。

MCP SSE 示例服务器

这是一个使用 Server-Sent Events (SSE) 实现的 MCP 示例服务器,演示了工具、资源和日志记录等核心 MCP 功能。

Swarmonomicon MCP服务器

Swarmonomicon是Madness Interactive项目的核心组件,旨在作为多代理AI系统的中央神经系统,提供MCP服务器功能。

NestJS MCP模块

基于NestJS框架,快速构建Model Context Protocol (MCP) 服务器的模块,简化资源、工具和Prompt的管理与暴露。

多服务MCP服务器

一个模块化的MCP服务器,提供GitHub、GitLab、Google地图、内存存储和网页自动化等多种工具集成。

ACI.dev MCP 服务器

基于ACI.dev平台的MCP服务器,提供应用工具的便捷访问和统一管理,支持工具发现和动态执行,简化LLM应用与外部功能的集成。

Beam MCP Server

Beam MCP Server是一个基于Apache Beam构建的MCP服务器,旨在为LLM应用提供跨多Runner环境的数据管道管理能力。

Pica MCP Server

Pica MCP Server作为LLM的上下文服务,集成Pica平台连接和能力,支持通过工具和资源访问各种API。

Archon Agent Service (MCP)

Archon MCP服务器为AI IDE提供智能体构建和优化服务,支持模型上下文协议,实现资源、工具和Prompt模板的标准化访问。

MCP Suite

MCP Suite 是一个系统托盘应用程序,用于管理和运行一系列 Model Context Protocol (MCP) 服务器,旨在增强 AI 代理的能力,使其能够无缝访问各种外部服务和 API。

Llama Stack Server

Llama Stack Server是一个应用后端,旨在通过标准化的方式为LLM客户端提供上下文信息和功能,支持资源管理、工具调用和Prompt模板定制。

Think MCP Server

一个提供 "think" 工具的最小化 MCP 服务器,使 Claude 等 LLM 具备思考能力,提升复杂推理任务的性能。

Kom MCP Server

Kom MCP Server基于Kom Kubernetes操作库,通过Model Context Protocol为LLM客户端提供Kubernetes资源上下文信息和管理工具。

MongoDB MCP Server示例

一个基础的MCP服务器示例,演示了如何使用Model Context Protocol (MCP) 框架提供资源列表,为后续MongoDB集成奠定基础。

Chat-AI 服务端

基于gRPC构建的LLM应用后端,提供资源管理、模型服务和上下文支持,可作为MCP服务器使用。

GitHub Materials MCP Server示例

该项目提供了一个基于Model Context Protocol (MCP) 的服务器端示例,集成了天气查询和随机用户生成工具,演示了如何向LLM客户端提供上下文信息和功能调用能力。

AI Command Line Tool MCP Server

为AI命令行工具提供MCP服务器功能,支持资源、工具和Prompt模板管理,以标准化方式为LLM客户端提供上下文服务。

DevOps MCP Servers

DevOps MCP Servers仓库为LLM应用提供了一系列与DevOps工具集成的MCP服务器实现方案,助力自动化运维。

Bluesky MCP 服务器

连接Bluesky社交网络,为LLM应用提供丰富的社交上下文和操作工具的MCP服务器实现。

ComfyUI LLM Party

ComfyUI LLM Party 是一个 ComfyUI 扩展,它实现了 MCP 服务器功能,为 ComfyUI 内的 LLM 工作流提供上下文信息和工具调用能力。

Graphiti

用于AI代理的实时知识图谱框架,提供动态上下文管理、高效检索和时间感知能力。

Kakashi MCP Servers

Kakashi MCP Servers为LLM应用提供天气查询和网页文件下载工具,基于Model Context Protocol标准实现。

AI Playground MCP Server

aiPlayground MCPServer 是一个使用 Model Context Protocol (MCP) 框架构建的简单 MCP 服务器示例,演示了如何通过标准化的协议向 LLM 客户端提供上下文服务,包括资源管理和工具注册。

MCP HTTP代理

mcp-proxy是一个轻量级HTTP代理,允许客户端通过HTTP协议访问MCP服务器,简化了部署并使其更容易在标准HTTP基础设施上运行。

Muppet

Muppet是一个用于构建Model Context Protocol (MCP) 服务器的开源工具包,旨在标准化LLM应用后端的开发流程。

PET-P

PET-P 是一个可配置的 RPA 工具包,可以作为 MCP 服务器为 LLM 客户端提供上下文信息和工具服务。

Azure MCP Server

一个基于Model Context Protocol的服务器,提供工具和接口,用于与Azure云资源进行交互和管理。

MCP信息工具服务器

基于MCP协议构建,提供法律法规、产品许可、天气和Azure定价等信息查询工具,增强LLM应用的功能。

Dify MCP Server

Dify MCP Server是基于Model Context Protocol的应用后端,为Dify AI应用提供资源、工具和Prompt模板的托管、管理和执行能力,支持LLM客户端通过JSON-RPC协议进行交互。

Nx Console MCP Server

为LLM应用提供Nx工作空间的上下文信息和代码生成能力的MCP服务器实现。

Smithery CLI

Smithery CLI 是一个用于安装、管理和运行 Model Context Protocol (MCP) 服务器的工具,旨在简化 MCP 服务器的部署和使用。

FLUJO

FLUJO是一个开源平台,本地化桥接工作流编排、模型上下文协议(MCP)和AI工具集成,为LLM应用提供安全可扩展的上下文服务框架。

Pollinations MCP Server

Pollinations MCP 服务器是一个开源实现,旨在为 AI 助手提供上下文和功能,支持资源管理、工具执行和 Prompt 模板渲染,并通过 JSON-RPC 协议进行通信。

MCP Demo Server (Python)

基于FastMCP框架实现的Python MCP服务器示例,提供算术工具和动态问候资源,可通过SSE或Stdio协议与客户端通信。

AgentScope MCP服务器

AgentScope是一个灵活的多智能体平台,集成了MCP服务器功能,为LLM应用提供标准化的上下文服务框架。

GitHub PR数据 MCP 服务器

通过MCP协议为LLM提供GitHub Pull Request信息,包括文件、差异、评论和评审等详细数据。

Browser Tools MCP Server

Browser Tools MCP Server 是一个基于 Model Context Protocol (MCP) 构建的服务器,旨在为 LLM 提供浏览器工具和上下文访问能力。

Podman Desktop Agent 扩展

Podman Desktop Agent 扩展在 Podman Desktop 中集成并管理 MCP 服务器,为 LLM 应用提供容器环境的上下文服务。

Karen

Karen MCP服务器提供API驱动的企业上下文管理和支持服务,集成业务管理、用户认证、工单系统和AI聊天机器人。

go-mcp MCP服务器

go-mcp 是一个用 Go 语言实现的 Model Context Protocol (MCP) 服务器,旨在为 LLM 应用提供资源、工具和 Prompt 管理等上下文服务。

Cursor AI MCP Servers

该仓库为 Cursor AI 提供了 PostgreSQL 和 Obsidian 的 MCP 服务器实现,扩展了其与数据库和本地笔记的交互能力。

GitMind-MCP Server

一个简化的MCP服务器,连接Ollama LLM和GitHub API,实现用户身份验证和声明可用功能,为LLM提供初步的GitHub上下文访问能力。

Light MCP Agents

一个轻量级的框架,用于构建和编排基于模型上下文协议(MCP)的AI Agent,支持创建分层 Agent 系统,实现任务委派、能力共享和协作。

天气上下文服务器

为LLM应用提供实时天气和天气预报的上下文资源和工具。

Quarkus Agentic MCP服务器

基于Quarkus和LangChain4j构建的简易Agentic应用MCP服务器,集成多种工具,提供上下文服务。

MCP服务器脚手架

generator-mcp 是一个 Yeoman 生成器,用于快速搭建基于 Model Context Protocol (MCP) 的服务器,预置工具注册和标准通信框架。

Hello World MCP服务示例

一个简单的MCP服务器示例,提供问候资源、助手Prompt和Echo工具,演示MCP服务器的基本功能。

AgentR Middleware MCP服务器

AgentR Middleware MCP服务器是一个应用后端,它集成了多种应用和集成,作为工具以标准化的MCP协议提供给LLM客户端,支持SSE传输协议。

Memory MCP Server

基于知识图谱的MCP服务器,提供实体、关系和观察的管理与查询功能,支持数据持久化。

MCP服务器示例项目

基于Python实现的MCP服务器示例,演示了如何构建资源和工具,并包含一个文档搜索工具示例。

Shared Knowledge MCP Server

为各类AI助手提供共享知识库的MCP服务器,支持RAG检索,提升信息访问效率。

Agent8 MCP Server

Agent8 MCP Server是为Agent8 SDK开发提供上下文支持的后端服务,实现了MCP协议,提供Prompt模板和工具注册能力。

Blowback MCP服务器

Blowback是一个为前端开发服务器集成了Model Context Protocol (MCP) 的服务器,旨在为LLM客户端提供浏览器环境的实时上下文和操作能力。

Open MCP Server

企业级AI上下文服务框架,集成多协议API,为AI应用提供数据支持和功能扩展。

Memory Bank MCP Server

Memory Bank MCP Server 是一个应用后端,基于 Model Context Protocol 构建,用于管理项目文档和上下文,为 LLM 客户端提供资源访问和工具调用能力。

Cyberon

Cyberon 是一个基于 Flask 的 Web 应用程序,同时也是一个 Model Context Protocol (MCP) 服务器,用于探索和可视化知识本体,并为 LLM 客户端提供上下文服务。

GemSuite MCP

基于MCP协议的Gemini API集成服务器,提供智能模型选择和文件处理等工具,增强LLM上下文能力。

Perplexity MCP 服务器

基于MCP协议,将Perplexity API模型能力封装为工具,提供模型问答服务的MCP服务器。

Easy MCP Server

一个轻量级的Python MCP服务器实现,通过SSE为LLM客户端提供上下文和工具能力。

TezLab MCP服务器

TezLab MCP服务器是一个基于Model Context Protocol的应用后端,为LLM客户端提供特斯拉车辆数据和充电信息的标准化访问接口。

时钟MCP服务器

一个基于Model Context Protocol (MCP) 的简单时钟服务器,提供获取当前时间、指定时区时间和支持时区列表等时间相关工具。

Backlog MCP Server

Backlog MCP Server 是一个基于 Model Context Protocol 的服务器实现,它允许 LLM 客户端通过预定义的工具访问 Backlog 项目管理系统中的 Issues 和 Wikis 信息,实现与 Backlog 数据的交互。

Qdrant 记忆上下文服务器

基于 MCP 协议的 Qdrant 向量数据库服务器,提供记忆存储和检索工具,为 LLM 应用提供上下文支持。

mcp-kafka

基于MCP协议的Kafka集成服务器,为LLM应用提供Kafka及相关生态系统的上下文数据访问和管理能力。

Playwright MCP Server

基于Playwright的MCP服务器,为LLM提供浏览器自动化工具,实现网页交互和内容获取。

天气MCP服务器

一个基于Model Context Protocol (MCP) 的服务器,提供天气预报和警报等实用工具,可通过SSE或Stdio协议连接。

MCP Memory Service

基于MCP协议的语义记忆服务器,为Claude等LLM应用提供持久化存储和上下文检索能力。

MCP Lambda Server Layer

为AWS Lambda函数提供MCP服务器基础设施,支持SSE协议,简化LLM应用在AWS环境中的上下文服务构建。

MCP Oracle数据库上下文服务器

为AI助手提供Oracle数据库结构上下文的MCP服务器,支持高效缓存、检索和搜索数据库schema信息。

Spotify MCP Server

一个基于 Model Context Protocol 的服务器,为 AI 助手提供访问 Spotify API 的能力,支持音乐搜索、艺术家和曲目信息查询,以及用户个性化音乐数据获取。

Kotlin Spring AI MCP服务器示例

基于Spring AI的Kotlin MCP服务器示例,展示如何构建符合MCP协议的后端应用,为LLM客户端提供上下文服务。

Hyper MCP Server

基于WebAssembly插件的可扩展MCP服务器,通过OCI镜像分发插件,为LLM应用提供灵活的上下文服务。

FireCrawl MCP Server

FireCrawl MCP Server 是一个强大的网络爬虫工具,作为 MCP 服务器为 AI 助手提供网页浏览和内容提取能力。

GitHub MCP Server

一个基于 Model Context Protocol 的服务器,提供访问 GitHub 资源和操作 GitHub 的工具,例如搜索仓库、获取仓库信息、创建 Issue 等。

MCP YouTrack Server

MCP YouTrack Server 是一个应用后端,通过 Model Context Protocol (MCP) 协议,为 LLM 客户端提供来自 YouTrack 的议题跟踪和管理能力。

MCP Dart SDK

基于 Dart 语言开发的 Model Context Protocol (MCP) SDK,同时提供客户端和服务端实现,用于构建 LLM 应用的上下文服务。

Flipt MCP 服务器

通过 Model Context Protocol (MCP) 将 Flipt 的功能标志作为资源和工具提供给 AI 助手,实现智能化的特征管理。

MCP示例服务器实现

基于FastMCP框架构建的MCP服务器示例,演示了如何通过资源、工具和Prompt模板为LLM应用提供上下文服务。

代码库知识MCP服务器示例

基于Python FastMCP框架实现的示例MCP服务器,提供代码库分析和查询能力。

MCPSX 命令行工具

MCPSX 是一个命令行工具,用于管理和运行 MCP 服务器及工具,简化 MCP 环境的配置和使用。

Port MCP Server

Port MCP Server通过MCP协议使LLM客户端能够调用Port.io的AI Agent工具,实现与Port.io平台的集成。

MCP Experiment Server

这是一个基于.NET开发的MCP服务器实验性实现,旨在为LLM客户端提供资源、工具和Prompt模板管理等上下文服务。

Recall MCP Server

Recall MCP Server为LLM客户端提供与Recall网络交互的上下文服务,支持账户、Bucket和Object操作,安全管理私钥。

Stack AI 工作流 MCP 服务器

Stack AI 工作流 MCP 服务器是一个桥梁,让兼容 MCP 协议的客户端能够调用和执行 Stack AI 平台上的工作流,并获取结构化结果。

Glean工具MCP服务器

基于MCP协议实现的Glean搜索和对话能力服务器,为LLM应用提供企业级知识库访问和AI助手服务。

Moov API MCP 服务器 SDK

Moov TypeScript SDK 既是 Moov API 的客户端 SDK,也是一个 MCP 服务器,可以将 Moov API 的各种方法作为工具提供给 LLM 应用。

Encore天气MCP服务器示例

使用Encore框架构建的MCP服务器示例,提供天气查询工具,演示了MCP协议在实际应用中的使用。

My-MCP Server

基于Vercel和Redis实现的MCP服务器,提供工具注册和SSE通信能力,可作为LLM应用的上下文服务后端。

MCP Go SDK

Go SDK,用于构建 Model Context Protocol (MCP) 服务器,为 LLM 应用提供外部数据和工具的桥梁。

Floword

Floword是一个用于构建自然语言工作流的后端服务,通过MCP协议连接和管理各种工具服务,为LLM应用提供可扩展的上下文服务框架。

Agent Construct

Agent Construct 是一个 Model Context Protocol (MCP) 服务器,旨在为 AI 应用提供标准化的工具和上下文访问方式。

文档知识库 MCP 服务器

MCP Server for Document Knowledge是一个基于Model Context Protocol的服务器,用于扩展LLM的知识库,使其能够访问和检索用户文档内容。

LLM工具服务器

LLM-Tools Server是一个基于FastMCP框架构建的MCP服务器,旨在为LLM提供工具化的上下文服务,目前集成了天气查询、网页搜索和事件查找等实用工具。

Demo MCP Server

基于 Model Context Protocol 的演示服务器,提供知识存储和检索功能,并通过工具和资源暴露给 MCP 客户端。

Unity MCP Server

Unity MCP Server是一个用于连接Unity编辑器和AI助手,提供Unity上下文信息的桥梁工具。

Deno MCP Server 模板

基于 Deno 的 MCP 服务器模板,提供资源和工具管理能力,简化 LLM 应用后端开发。

MCP服务器示例

一个简单的MCP服务器示例,演示了资源、工具和Prompt模板的定义与使用,支持Stdio和SSE传输协议。

天气信息MCP服务器

基于MCP协议的天气信息服务器,提供美国国家气象局的实时天气警报和预报查询功能。

ReActMCP Web Search Server

ReActMCP Web Search Server是一个MCP服务器,为LLM客户端提供基于Exa API的实时网络搜索能力,支持基础和高级搜索功能。

Dify MCP 服务器插件

将 Dify 应用转换为 MCP 服务器的插件,允许 LLM 客户端通过 MCP 协议调用 Dify 应用的功能。

Atoma SDK 服务器

Atoma SDK 仓库不仅提供Typescript SDK,还能作为MCP服务器运行,为AI应用提供模型访问和工具调用能力。

Agentek MCP Server

Agentek MCP Server 是一个基于 Model Context Protocol 的应用后端,旨在为 LLM 客户端提供区块链交互工具和数据访问能力。

Confluent MCP Server

基于Model Context Protocol的服务器,连接Confluent Cloud,为LLM提供Kafka数据访问和管理工具。

MyMCP服务器

MyMCP是一个实现了Model Context Protocol (MCP) 的服务器,旨在为LLM应用提供资源、工具和Prompt模板等上下文服务。

MCP简易示例服务器

一个简单的MCP服务器示例,展示了资源、Prompt和工具管理,支持SSE和Stdio传输。

Montano MCP 服务器

基于 Model Context Protocol 的服务器实现,提供工具注册和执行能力,并通过标准协议与 LLM 客户端通信。

Popmelt设计系统上下文服务器

Popmelt MCP Server为LLM应用提供设计系统上下文和CSS生成能力,通过RESTful API管理设计 profiles 并按需生成样式。

Salesforce MCP Server Docker 部署

提供 Docker 镜像及配置,一键部署 Salesforce MCP Server,简化 MCP 服务器的安装和运行流程。

Minimal MCP Server示例

基于官方MCP SDK的最小化服务器实现,提供工具注册和执行能力,适用于快速搭建和学习MCP服务器。

自定义MCP工具服务器模版

这是一个基于 Model Context Protocol 的服务器模版,用于扩展 Claude 等 LLM 的功能,支持自定义工具集成。

MB-MCP多服务集成框架

MB-MCP是一个Python包,通过模型上下文协议连接多种服务,为LLM应用提供统一的上下文服务和工具接口。

PHP MCP服务器示例

基于PHP实现的MCP服务器,提供Prompt模板、Tool工具和Resource资源的管理与访问功能,为LLM应用提供上下文服务。

终端命令MCP服务器

一个基于MCP协议实现的服务器,允许LLM客户端通过工具调用执行终端命令,扩展LLM的系统交互能力。

MySQL MCP Server

一个MCP服务器,为LLM应用提供MySQL数据库的上下文访问能力,支持表查询、数据读取和SQL执行。

Oraichain MCP 服务器

基于MCP协议构建的Oraichain区块链工具服务器,为LLM应用提供访问Oraichain网络和执行相关操作的能力。

OneSearch MCP Server

提供网页搜索、抓取和内容提取功能的MCP服务器实现。

Langbase MCP Server

基于Langbase的MCP服务器,提供管道和记忆管理工具,方便LLM客户端使用Langbase服务。

myAI Memory Sync MCP服务器

基于MCP协议构建,同步和管理Claude各界面个人记忆,提供一致化AI体验的后端服务。

Meside

Meside是一个开源AI驱动的数据工具,通过Model Context Protocol (MCP) 提供数据库上下文和工具能力,简化数据工作流。

天气信息MCP服务器

一个简单的MCP服务器,通过工具提供美国天气预警和预报信息。

MUXI框架

MUXI框架是一个用于构建具备记忆和MCP服务器集成的AI代理平台,旨在简化上下文感知LLM应用的开发。

Laravel MCP Server SDK

基于Laravel框架构建MCP服务器的SDK,提供资源、工具和Prompt管理,支持多种传输协议。

QQ机器人MCP服务

一个基于Model Context Protocol (MCP) 实现的服务器,旨在为QQ机器人提供上下文信息和工具调用能力。

MCP-rs Rust服务器实现

MCP-rs 是一个使用 Rust 语言实现的 Model Context Protocol (MCP) 服务器,提供资源管理、工具注册和 Prompt 模板等核心功能,支持多种传输协议,为 LLM 应用构建可扩展的上下文服务。

CustomGPT MCP集成示例服务器

本仓库提供了一个使用FastMCP库构建的MCP服务器示例,用于将CustomGPT的功能集成到支持MCP协议的LLM客户端,例如Claude。

AgentCraft MCP Server

AgentCraft MCP Server为AI Agent提供安全可扩展的上下文服务,支持数据交换和工具调用,是企业级AI应用的基础设施。

OWL多智能体协作框架

OWL是一个先进的多智能体协作框架,集成了模型上下文协议(MCP),旨在简化AI模型与工具及数据源的标准化交互,实现高效的任务自动化。

Nash MCP Server

Nash MCP Server为LLM提供上下文服务,支持命令执行、代码运行、网页访问、安全密钥管理和任务自动化。

天气预警MCP服务器

基于MCP协议的天气预警服务,为LLM客户端提供美国各州的天气预警信息。

Gmail MCP 服务器

基于 Model Context Protocol 的 Gmail 邮箱服务,为 LLM 应用提供邮件收发、搜索和管理能力。

mcp-rquest HTTP请求服务器

基于MCP协议,为LLM提供高级HTTP请求能力的服务器,支持浏览器指纹和多种HTTP方法。

Dropbox MCP Server

dbx-mcp-server 是一个基于 Model Context Protocol 的服务器实现,它将 Dropbox 云存储服务集成到 MCP 协议中,为 LLM 应用提供文件管理和数据访问能力。

HADES - 混合架构动态增强系统

HADES是一个混合系统,它通过MCP服务器集成LLM和知识图谱,为自然语言查询提供上下文丰富且经过事实验证的答案。

Chrome Control MCP Server

Chrome Control MCP Server是一个基于Model Context Protocol的服务器,为AI助手提供网页语义理解和DOM操作能力,实现无需截图的网页浏览和交互。

Ragie知识库MCP服务器

Ragie MCP服务器提供知识库检索工具,通过Model Context Protocol (MCP) 协议,使LLM应用能够安全便捷地访问和利用Ragie知识库进行信息检索。

NASA MCP Server

NASA MCP Server是一个基于Model Context Protocol (MCP) 的服务器,旨在为LLM应用提供访问NASA开放数据的标准化接口。

MCP服务器工具集

该项目是一个基于Model Context Protocol (MCP) 的服务器集合,提供多种实用工具,如简单的计算、Google地图服务以及CSV/XLSX文件处理等,旨在为LLM应用提供丰富的外部能力。

MCP AI Server

MCP AI Server是一个应用后端,通过标准化的JSON-RPC协议向LLM客户端提供上下文信息和功能,包括资源管理、工具执行和Prompt模板渲染等核心MCP协议功能。

Zork 工具 MCP 服务器

基于 Model Context Protocol 的 Zork 游戏工具服务器,为 LLM 客户端提供 Zork 游戏环境的交互工具。

OpenPyXL MCP Excel数据访问服务器

一个基于Model Context Protocol的服务器,允许LLM客户端(如Claude)安全访问和查询Excel文件中的数据。

LocalMCP

LocalMCP是一个开源项目,旨在提供一套易于部署和管理的本地化MCP服务器解决方案,支持多种社交平台和本地模型集成,并提供Web界面监控和管理。

mcp-go

mcp-go 是一个用 Go 语言编写的 Model Context Protocol (MCP) 服务器实现,旨在简化 LLM 应用与外部数据源和工具的集成。

MCPServers Swift实现

基于Swift和SwiftMCP构建的MCP服务器集合,旨在为LLM客户端提供资源、工具和Prompt模板管理等上下文服务。

Authed MCP服务器集成

Authed MCP服务器集成方案,为AI Agent提供安全认证的Model Context Protocol服务。

Composio MCP 工具集

Composio MCP 提供生产就绪的工具集,用于构建 AI Agent,连接到 MCP 服务器以获取上下文和工具能力。

MCP示例服务集

本仓库提供了一系列基于Model Context Protocol (MCP) 的示例服务器,演示了如何构建可扩展的上下文服务后端,包括文件系统、天气、播客和邮件服务。

WhatsApp Web MCP Server

通过 Model Context Protocol (MCP) 将 WhatsApp Web 功能桥接到 AI 模型,实现上下文感知和功能调用。

AI待办事项日历助手MCP服务器

基于OpenAI Assistant API和Google日历API构建的AI待办事项和日历助手,通过MCP协议提供标准化工具调用和上下文管理能力。

MyManus

MyManus 是一个本地、安全的 Agentic 环境,基于 Model Context Protocol (MCP) 构建,无需编码即可为 LLM 提供资源、工具和 Prompt 支持。

Jira Cloud MCP 服务器

Jira Cloud MCP 服务器是一个基于 Model Context Protocol 的后端应用,旨在为 LLM 客户端提供与 Jira Cloud 实例交互的工具,实现问题管理、项目查询等功能。

MINDY MCP 服务器

MINDY MCP 服务器是一个基于 Model Context Protocol 的 PostgreSQL 实现,为 AI 模型提供资源管理和上下文数据访问能力,支持 Supabase 数据库。

Hermes MCP

Hermes MCP 是一个用 Elixir 开发的 Model Context Protocol (MCP) 服务器和客户端库,旨在为 LLM 应用提供标准化的上下文服务框架。

Bitte MCP Proxy

基于MCP协议的代理服务器,为LLM应用提供对Bitte AI服务和扩展工具的标准化访问接口。

mcp-ectors

mcp-ectors 是一个高性能的 MCP SSE 服务器,使用 Rust 和 Actors 构建,旨在为 LLM 提供工具、资源和 Prompt 模板的集成和管理能力。

Kotlin MCP 示例服务器

基于Kotlin开发的MCP服务器示例,用于演示和学习如何构建支持LLM上下文交互的后端服务。

Researcher MCP Server

基于MCP协议的研究服务器,集成Perplexity AI以增强研究和文档编写能力。

Weaviate MCP 服务器

基于Weaviate向量数据库的MCP服务器实现,为LLM提供知识库搜索和记忆存储工具。

Clipboard MCP Server

一个简单的MCP服务器,允许LLM客户端访问macOS剪贴板中的图像内容,作为LLM的上下文输入。

Cursor MCP Server 示例教程

一个为Cursor编辑器设计的简单MCP服务器教程,演示如何通过工具向LLM提供用户信息。

AgentRPC

AgentRPC是通用RPC层,提供MCP服务器连接AI Agent与跨网络和语言的函数工具。

Survey-ZI-UIN-New AI集成应用

Survey-ZI-UIN-New 是一个集成了文件系统和内存MCP服务器的全栈Web应用,为AI应用提供上下文服务。

Hyper MCP

Hyper MCP是一个基于WebAssembly和OCI Registry插件系统的模型上下文协议(MCP)服务器,旨在为LLM应用提供可扩展的上下文服务。

AgentIQ

AgentIQ是一个灵活的库,旨在将企业级智能体与各种数据源和工具无缝集成,并兼容模型上下文协议(MCP),作为一个有效的MCP服务器实现。

ChatLLM

AI聊天应用后端服务,集成多种LLM,支持会话管理、工具调用和MCP服务器集成。

Docker AI Tools for Devs MCP Server

基于Docker的MCP服务器,支持Markdown提示词和Docker化工具,为LLM应用提供上下文服务。

MCP服务器脚手架

基于Model Context Protocol的服务器端模版,提供IP地址查询工具和资源,方便LLM应用集成外部功能。

MCP Dockmaster

MCP Dockmaster 是一个用于安装、管理和监控 MCP 服务器的工具,为 LLM 应用提供上下文服务。

LLMling Agent MCP Server

LLMling Agent 框架内置 MCP 服务器,为 LLM 客户端提供资源、工具和 Prompt 管理服务。

LocalMCP服务器

LocalMCP是一个本地自托管的MCP服务器,支持多种服务集成和本地大模型,并通过Web界面进行管理。

客户支持系统MCP服务器

基于Next.js构建的客户支持系统后端,集成了Model Context Protocol (MCP),为LLM客户端提供上下文服务和代码分析工具。

Figma Context MCP Server

为AI编码工具提供Figma设计文件的上下文信息,支持Cursor等工具通过MCP协议访问Figma数据,提升设计稿代码生成准确率。

SillyTavern MCP Server

SillyTavern MCP Server插件,为LLM客户端提供资源、工具和Prompt模板管理功能。

Getting Started with MCP

该项目提供了一个基于FastMCP框架的简单MCP服务器示例,演示了如何定义和注册工具(Tool)和资源(Resource),为LLM应用提供基础的上下文服务能力。

personal mcp agents

该仓库提供了一个基于FastMCP框架实现的MCP服务器,集成了Perplexity AI的搜索功能,允许LLM客户端通过调用工具进行网页搜索,并支持多种搜索模式和模型选择。

prompt book mcp server

prompt-book-mcp-server 是一个 MCP 服务器,它连接到 Notion 数据库,用于高效管理、搜索和检索 AI 提示词,方便用户在各种 AI 工具中使用。

crawlab mcp

Crawlab MCP Server 是一个基于 Model Context Protocol 的应用后端,旨在为 AI 应用提供访问 Crawlab 功能的标准化接口,支持资源管理和工具注册。

kb mcp server

基于txtai的kb-mcp-server项目实现了一个模型上下文协议(MCP)服务器,旨在通过标准化的JSON-RPC接口,为LLM客户端提供语义搜索、知识图谱查询和AI文本处理等上下文增强服务。

ummon

Ummon是一个代码分析工具,它通过构建代码知识图谱并提供MCP服务器,使AI助手能够理解和查询代码库的结构和语义信息,从而提升代码理解和辅助编程能力。

mcp weather server

一个示例MCP服务器,为LLM应用提供实时的天气数据查询服务。

sat mcp server

Satellaite MCP Server是一个为LLM客户端提供Satellaite API资源和工具的后端服务,通过Model Context Protocol标准协议进行通信,支持访问链上合约信息和执行合约操作。

java sdk

java-sdk仓库为Java开发者提供了Model Context Protocol (MCP) 的SDK,包含构建MCP客户端和服务器端应用所需的核心库和工具,简化了Java应用与AI模型和工具的标准化集成过程。

mcp prompts

mcp-prompts仓库是一个实现了Model Context Protocol (MCP) 的服务器,用于管理Prompt模板和自动化项目创建,支持多种存储方式,并提供丰富的工具集。

code assistant

Code Assistant是一个Rust CLI工具,兼具代码分析Agent模式和MCP服务器模式,旨在辅助开发者进行代码相关任务,并能作为插件集成到Claude Desktop等MCP客户端。

mcp server salesforce

mcp-server-salesforce 是一个 MCP 服务器实现,提供笔记的存储、总结和添加功能,可作为与 Salesforce 集成的基础。

allnads

AllNads仓库实现了基于Model Context Protocol的MCP服务器,为AI智能体提供访问区块链数据和执行智能合约交易的工具,是AllNads平台后端架构的重要组成部分。

storm mcp server

Storm MCP Server是基于Model Context Protocol的服务器实现,旨在连接LLM应用和Sionic AI Storm Platform,提供RAG数据源和工具集成,支持上下文共享、工具调用和文件管理等功能,特别为Claude Desktop等MCP客户端设计。

mcp

基于Model Context Protocol,为LLM应用提供Neo4j图数据库的上下文访问、查询执行和分析能力。

gomcptest

该项目为MCP协议的概念验证,包含模拟OpenAI API的主机和多个MCP工具(如Bash、文件编辑等),演示了如何构建与MCP服务器交互的LLM应用后端。

prompts.kitchenai

KitchenAI Prompts Manager 是一个用于管理 Prompt 的系统,提供版本控制、评估、集成等功能,并包含一个 Python MCP 服务器实现。

mcp hub

MCP Hub集中管理多个MCP服务器,提供统一API访问工具和资源。

mcp kotlin sdk

mcp-kotlin-sdk仓库是基于Kotlin实现的Model Context Protocol (MCP) SDK,它不仅提供了构建MCP客户端的能力,也包含了创建MCP服务器的功能,旨在帮助开发者便捷地构建和部署MCP应用。

mcp servers

提供会话管理和任务管理的MCP服务器集合,增强LLM应用的状态保持和任务自动化能力。

mcp

mcp.rs 是一个用 Rust 语言实现的高性能 Model Context Protocol (MCP) 服务器,旨在为 AI 应用提供标准化的上下文和资源访问能力。

mcp rs test

基于Rust实现的MCP服务器,提供基础的JSON-RPC通信和初始化、心跳检测等核心功能,用于学习和验证MCP协议。

Memory Usage Dashboard

Memory Usage Dashboard 是一个基于 Electron 构建的桌面应用,它实现了 MCP 服务器规范,提供本地内存数据存储、检索和管理的上下文服务。

mcp community

mcp-community是一个Python库,提供预构建的MCP服务器(如计算器和DuckDuckGo搜索),以及运行和连接这些服务器的工具,方便LLM集成外部功能。

sse mcp server

该仓库是基于Server-Sent Events (SSE) 的MCP服务器示例实现,旨在Netlify Edge Functions上部署,提供资源、工具和Prompt管理等核心MCP功能。

mcp gateway

mcp-gateway 是一个 MCP 服务器网关,作为反向代理,统一管理和接入多个 MCP 服务器,简化 LLM 客户端与后端上下文服务的交互。

mcp custom server

该项目是一个使用TypeScript开发的自定义MCP服务器,提供了资源、工具和Prompt模板的管理功能,旨在扩展大型语言模型的能力。

ragaman

Ragaman是一个基于Model Context Protocol (MCP) 的RAG系统,用于管理个人笔记,并提供基于语义搜索的知识检索功能。

template mcp server

用于快速搭建MCP服务器的模板项目,支持通过标准输入输出和HTTP协议与客户端通信,并可扩展资源、工具和Prompt模板功能。

prompt decorators

Prompt Decorators 提供了一个标准化的框架,用于增强和管理大型语言模型 (LLM) 的 Prompt,包含 MCP 服务器实现,可与 Claude Desktop 等 MCP 客户端集成。

ai toolkit

使用 Subtotal API 工具构建的 MCP 服务器,通过标准化的 Model Context Protocol 协议向 LLM 客户端提供访问 Subtotal 财务数据 API 的能力。

archon

Archon是一个AI代理构建器,通过Model Context Protocol (MCP) 提供后端服务,支持AI IDE集成,用于自主创建和优化AI代理。

Orbit

Orbit是一个个人联系人管理MCP服务器,允许LLM客户端访问和操作用户的联系人信息,提供联系人查询、更新等功能。

mcp server shortcut

一个MCP服务器,通过工具集成Shortcut API,为LLM提供项目管理上下文和操作能力。

langchain mcp adapters example

langchain-mcp-adapters-example 是一个简单的 MCP 服务器示例,提供了加法和乘法两个数学工具,可以与 LLM 客户端进行交互。

beyond mcp server

基于MCP协议的社交媒体上下文服务器,支持Farcaster等平台的数据访问和功能调用。

mcp server milvus

该项目是一个MCP服务器,为LLM应用提供访问Milvus向量数据库的桥梁,支持向量检索、数据管理等功能。

mcp google calendar

基于Model Context Protocol的Google日历MCP服务器,允许AI应用标准化访问和操作Google日历数据。

x mcp server

x-mcp-server是一个MCP服务器,允许LLM客户端通过工具与X平台(原Twitter)进行交互,实现推文发布、用户数据获取等功能。

MCP server template

MCP-server-template 是一个用于构建 Model Context Protocol (MCP) 服务器的综合模板,基于 TypeScript/Node.js,提供标准化结构和最佳实践。

servers

该仓库servers提供了一系列参考MCP服务器实现,演示了如何通过MCP协议为LLM提供工具和数据访问能力。

chrisboden mcp template

该项目是一个MCP服务器模板,用于创建可为Cursor IDE提供网页抓取和情绪检测等工具的自定义MCP服务器。

mcp server

一个基础的MCP服务器示例,提供笔记存储、总结和添加工具,演示了如何构建符合Model Context Protocol的应用后端。

mcp template

基于Model Context Protocol的服务器模板,使用TypeScript构建,提供资源、工具和Prompt功能,方便LLM应用集成上下文能力。

MCP

该仓库提供了一组基于Model Context Protocol (MCP) 的服务器实现,包括 GitHub 工具服务器和本地文件搜索服务器,并提供了一个管理这些服务器的管理器。

mcp servers

该仓库提供预构建的MCP服务器,用于将GitHub和Puppeteer功能集成到LLM应用中,扩展LLM的能力边界。

home assistant mcp server

将Home Assistant智能家居系统接入Model Context Protocol (MCP) 的服务器,允许LLM客户端控制和查询智能家居设备。

MCP Server for MAS Developments

该项目是基于 Model Context Protocol 的服务器实现,用于管理资源、工具和 Prompt 模板,为 LLM 应用提供上下文服务。

mcp wasm

mcp-wasm 是一个基于 WebAssembly 的 MCP 服务器实现,旨在提供更安全、可移植的上下文服务,通过沙箱环境增强安全性,并支持多种编程语言。

code ferret

Code Ferret 是一款轻量级的代码搜索工具,可以作为 MCP 服务器集成到 LLM 应用中,提供代码检索能力。

mcp kit

mcp-kit 是一个开源工具包,用于构建基于 Model Context Protocol (MCP) 的应用后端,提供资源管理、工具集成和Prompt模板等功能,旨在简化LLM应用后端开发。

crawlab mcp server

crawlab-mcp-server 是一个基于 Model Context Protocol (MCP) 构建的应用后端,为 Crawlab 爬虫平台提供标准化的 AI 应用上下文服务接口。

python memory mcp server

该项目是一个基于Model Context Protocol (MCP) 的服务器实现,专注于管理和查询知识图谱,为LLM应用提供结构化记忆服务。

mcp wasm

mcp-wasm 是一个运行在 WebAssembly (WASM) 环境中的 MCP 服务器概念验证实现,展示了在浏览器环境中集成 MCP 工具和资源的能力。

mcp hello world

一个简单的MCP服务器示例,提供了一个问候工具 (hello-world),用于演示MCP服务器的基本功能。

mcp server template

基于Model Context Protocol的服务器模板,使用TypeScript开发,提供工具注册、调用和测试功能,帮助开发者快速构建MCP后端应用。

MCPheonix

MCPheonix 是一个基于 Elixir Phoenix 框架的 MCP 服务器实现,提供资源管理、工具调用和实时事件流等功能,旨在为 AI 模型提供统一的上下文交互接口。

sample mcp rails

一个简单的Ruby MCP服务器示例,提供基础的问候功能和hello-world资源。

mcp js server

mcp-js-server 是一个基于 JavaScript 的 MCP 服务器 SDK,用于构建能够向 LLM 应用提供资源、工具和 Prompt 模板的后端服务。

openai mcp

Claude Code Python Edition 是一个基于 Model Context Protocol (MCP) 的应用,它不仅是一个强大的 LLM 驱动的 CLI 软件开发工具,同时也能作为 MCP 服务器为 Claude Desktop 等客户端提供上下文服务,并具备成本管理和实时工具可视化等增强功能。

mcp server

一个基于 Model Context Protocol (MCP) 的简化服务器实现,旨在降低 MCP 服务器的开发门槛,并提供工具注册和执行的核心功能。

mcp server lancedb

基于LanceDB的MCP服务器,提供文本记忆存储和语义搜索工具,增强LLM应用的上下文处理能力。

mcp servers

该项目 mcp-servers 仓库包含一个 TUI 工具用于安装和管理 MCP 服务器,并提供了一个针对 Shortcut 的 MCP 服务器实现,允许 LLM 客户端通过 MCP 协议访问 Shortcut 项目管理工具中的故事、史诗和目标等信息。

mcp server template

该项目是一个MCP服务器模板,旨在帮助开发者快速搭建自定义MCP服务器,以便为Cursor或Claude Desktop等LLM客户端提供上下文信息和工具能力。

dotcontext

dotcontext 是一个MCP服务器,通过结构化项目上下文,帮助AI编码助手更好地理解和辅助代码开发。

starbridge

Starbridge是一个MCP服务器,旨在桥接Claude桌面应用与Web、Google及Atlassian工作区,提供资源访问、工具调用和Prompt模板服务。

mcp core

mcp-core 是一个 Rust 库,实现了 Model Context Protocol (MCP) 服务器核心功能,支持通过 Stdio 和 SSE 传输协议提供工具注册、调用等服务,为 LLM 应用构建可扩展的上下文服务后端。

NetContextServer

NetContextServer通过Model Context Protocol (MCP) 协议,为AI助手提供访问.NET代码库上下文的能力,支持代码搜索、项目分析和文件管理等功能。

mcp on vercel

基于Vercel的MCP服务器实现,提供资源、工具和Prompt模板管理,通过SSE与客户端通信,支持LLM应用构建。

architect mcp server

此仓库提供了一个MCP服务器模板,用于构建可扩展的LLM应用后端,集成了工具注册、调用和上下文管理功能,并提供与LLM CLI交互的示例工具。

effect mcp

effect-mcp 是一个使用 Effect 库构建的 Model Context Protocol (MCP) 服务器实现,提供资源管理、工具注册和 Prompt 模板功能,并通过 Stdio 和 SSE 等传输协议与客户端通信。

Open Ledger MCP Server

OpenLedger MCP Server是一个基于Model Context Protocol的服务器实现,旨在为AI模型提供访问OpenLedger API金融数据的结构化上下文。

WASImancer

WASImancer是一个基于Node.js开发的MCP服务器,创新性地使用WebAssembly插件扩展工具功能,提供高性能和安全的上下文服务。

mcp neo4j shan

mcp-neo4j-shan仓库是一个基于Neo4j图数据库实现的MCP服务器,它利用知识图谱存储和认知神经科学启发的特性,为LLM提供丰富的上下文信息和工具支持。

emcp

eMCP是一个基于Model Context Protocol (MCP) 的服务器,扩展了LiteMCP的功能,增加了内置身份验证和自定义中间件支持。

mcpagentai

MCPAgentAI是一个工具包装框架,通过MCP协议为LLM客户端提供时间、天气、股票、ElizaOS等多种工具服务。

mcp go

Go语言MCP服务器SDK,提供资源、工具和Prompt模板管理功能。

CrawlnChat

CrawlnChat是一个模块化的网站爬取和聊天系统,通过MCP协议向LLM客户端提供抓取的网站内容作为上下文信息,并支持基于LangGraph的智能问答和品牌合规性检查。

Google Search MCP Server

Google Search MCP Server为AI模型提供Google搜索和网页内容提取工具,通过MCP协议与客户端通信。

sse

mcp_sse 是一个 Elixir 库,用于构建基于 Server-Sent Events (SSE) 的 Model Context Protocol (MCP) 服务器,为 LLM 应用提供上下文服务后端。

rag retriever

RAG Retriever是一个Python应用,作为MCP服务器,为AI助手提供网页检索、向量检索和网页抓取功能,增强代码生成和上下文感知能力。

mcp daemon

Rust实现的MCP服务器,提供资源管理、工具注册和Prompt模板等核心功能,支持多种传输协议。

mcp rb

mcp-rb 是一个 Ruby 框架,用于构建 MCP 服务器,便捷地定义和管理资源与工具,为 LLM 应用提供上下文服务后端。

claude mcp setup

claude-mcp-setup仓库提供了一键部署和配置多种MCP服务器的工具,旨在简化用户为Claude等LLM应用搭建后端服务的流程。

snyk ls

Snyk Language Server (snyk-ls) 是一个实现了 Language Server Protocol (LSP) 的语言服务器,并扩展支持 Model Context Protocol (MCP) 服务器功能,为代码分析和安全检测提供上下文服务。

hermes mcp

Hermes MCP 是一个用 Elixir 开发的 MCP 服务器和客户端库,提供了高性能的 MCP 协议服务端实现,支持资源、工具和 Prompt 管理。

ModelContextProtocol.NET

ModelContextProtocol.NET 是一个C# SDK,用于构建基于 Model Context Protocol (MCP) 的服务器,提供工具集成、资源管理和 Prompt 系统等功能,并支持标准I/O和WebSocket通信。

mcp rs template

基于Rust开发的MCP服务器模板,提供资源、Prompt和工具管理功能,可用于构建LLM应用后端。

easy mcp

easy-mcp 是一个使用 TypeScript 开发的 MCP 服务器框架,旨在简化资源、工具和 Prompt 的定义与管理。

claude code mcp

claude-code-mcp仓库提供了一系列基于Model Context Protocol (MCP) 的服务器实现,旨在扩展Claude等LLM模型的功能,使其能够与外部世界进行交互,例如进行网络搜索、操作GitHub仓库、访问本地文件系统、管理Docker容器、操作数据库、进行Slack通信和管理研究论文等。

sdk

Vercel SDK作为MCP服务器,将Vercel平台功能以工具形式提供给LLM应用,方便LLM客户端调用Vercel API,实现自动化和集成。

Dive

Dive是一款开源桌面应用,作为MCP Host,无缝集成和管理MCP服务器,为具备函数调用能力的LLM提供工具和数据访问能力。

iMCP

iMCP 是一款 macOS 应用程序,作为 MCP 服务器,旨在连接用户的数字生活与人工智能,通过工具向支持 MCP 协议的客户端提供日历、联系人、消息等个人数据访问能力。

litemcp

轻量级MCP服务器框架,用于构建和管理LLM上下文服务。

mcp framework

一个用于构建模型上下文协议(MCP)服务器的TypeScript框架,提供工具、资源和Prompt的自动发现、多种传输协议和身份验证等功能,简化MCP服务器的开发流程。

DevDocs

DevDocs 仓库实现了基于 MCP 协议的服务器,用于托管和管理抓取的 Markdown 文档,并提供资源访问和工具调用功能,为 LLM 应用提供文档上下文服务。

MCP Bridge

MCP-Bridge是一个桥接OpenAI API与MCP工具的服务器,方便开发者通过OpenAI API接口使用MCP工具。

fastmcp

FastMCP是一个TypeScript框架,用于快速构建支持Model Context Protocol (MCP) 的服务器,简化工具、资源和Prompt的定义与管理,并支持多种传输协议。

mcp go

mcp-go 是 Model Context Protocol (MCP) 的 Go 语言实现,旨在帮助开发者构建连接 LLM 应用和外部数据源及工具的后端服务。

mcp agent

mcp-agent是一个用于构建基于Model Context Protocol (MCP) 的AI代理的轻量级框架,它简化了MCP服务器的连接和管理,并提供了构建强大代���应用的工作流模式。

repomix

Repomix是一个将代码库打包为AI友好格式的工具,并可作为MCP服务器,使AI助手能够通过标准化协议分析本地或远程仓库的代码上下文。

Upsonic

Upsonic框架是一个可靠性优先的应用后端,通过模型上下文协议(MCP)提供工具和上下文,支持构建生产级LLM应用。

python sdk

基于 Model Context Protocol 的 Python SDK,用于构建 MCP 客户端和服务器,便捷地为 LLM 应用提供上下文服务。

my mcp server

一个简单的MCP服务器,提供天气预报工具,允许LLM客户端查询指定经纬度地区的天气信息。

mcp go

riza-io_mcp-go 是一个 Go 语言实现的 Model Context Protocol (MCP) SDK,提供构建 MCP 服务器和客户端的能力,支持资源、工具和 Prompt 管理,并通过 Stdio 等传输协议与 LLM 客户端通信。

fastmcp

FastMCP是一个TypeScript框架,用于快速构建MCP服务器,支持工具、资源和Prompt定义,并提供多种传输协议和实用工具。

brave search mcp

brave-search-mcp 是一个 MCP 服务器,它利用 Brave Search API 提供网页搜索工具,使 LLM 能够访问和利用最新的网络信息。

mcp

MCP工具,作为MCP服务器的代理,帮助用户发现、安装和管理其他MCP服务器,为LLM客户端提供统一的上下文服务入口。

FellowTraveler rs filesystem

rs_filesystem 是一个基于 MCP 协议的文件系统工具服务器,允许 LLM 客户端通过工具调用和资源访问,实现本地文件系统的读取、编辑和管理功能。

minima

Minima MCP Server为Anthropic Claude等LLM客户端提供本地文件RAG能力,支持工具调用和Prompt定制,实现安全可扩展的上下文服务。

mcp server yahoo finance

该MCP服务器提供简单的笔记存储和管理功能,允许LLM客户端创建、访问和总结笔记内容,包含资源管理、Prompt生成和工具调用等MCP核心能力。

litemcp

LiteMCP是一个用于构建MCP服务器的TypeScript框架,简化了工具、资源和Prompt的定义和管理,方便LLM应用集成上下文能力。

mcp text editor

tumf_mcp-text-editor 是一个MCP文本编辑器服务器,提供基于行操作的文本文件编辑和访问能力,专为LLM工具优化,支持高效的分段文件读取和冲突检测。

cognee mcp server

topoteretes_cognee-mcp-server 是一个基于 MCP 协议的服务器,集成了 cognee AI 记忆引擎,提供构建和搜索知识图谱的工具,用于增强 LLM 的上下文理解能力。

inoyu mcp unomi server

基于Model Context Protocol的Unomi服务器,通过Apache Unomi管理用户画像,为LLM客户端提供用户上下文信息和profile管理工具。

bioma tool

一个基于Rust实现的MCP服务器,提供资源管理、工具调用(包括echo、memory、fetch)和Prompt模板功能,支持Stdio和WebSocket传输协议,用于连接LLM客户端。

mcp server llamacloud

连接 LlamaCloud 知识库的 MCP 服务器,通过工具提供知识库信息检索功能,为 LLM 应用提供上下文数据。

oatpp mcp

基于Oat++框架的MCP服务器库,支持资源、工具和Prompt管理,可通过STDIO或SSE集成。

mcp client and server

一个简单的MCP服务器,用于管理笔记资源,提供笔记总结 Prompt,并提供添加、获取、列出笔记以及管理链式MCP服务器的工具。

mcp server llmling

LLMling MCP服务器是一个YAML配置驱动的MCP服务器实现,旨在为LLM应用提供资源、工具和Prompt管理功能,支持多种传输协议和配置热更新。

mcp golang

mcp-golang 是一个使用 Go 语言开发的 MCP 服务器库,旨在帮助开发者快速构建兼容 Model Context Protocol 的应用后端,支持工具、Prompt 和资源的管理与调用。

mcp substack

该项目是一个MCP服务器,用于下载和解析Substack文章内容,并与Claude.ai等LLM客户端集成,提供Substack文章作为上下文资源。

scaflog zoho mcp server

连接Zoho Creator应用与LLM客户端的MCP服务器,提供表单和报表数据访问。

mcp server duckdb

一个基于Model Context Protocol (MCP) 的服务器实现,允许LLM客户端通过工具与DuckDB数据库进行交互,执行查询、创建表等操作。

fastmcp

FastMCP是一个Python库,旨在简化Model Context Protocol (MCP) 服务器的构建,使开发者能够快速、便捷地为LLM应用提供上下文和工具支持。

mcp server client

该项目是一个基础的MCP服务器示例,使用TypeScript SDK实现,演示了如何通过stdio传输协议提供资源列表和读取功能,适用于学习和理解MCP服务器的基本构建。

test python mcp server

一个简单的Python MCP服务器,用于管理笔记,允许客户端添加、总结和访问笔记资源。

deno2 playwright mcp server

Deno 2 Playwright MCP Server是一个基于Model Context Protocol的服务器,它利用Playwright库为LLM提供浏览器自动化能力,例如网页导航、截图和执行JavaScript。

mcp server emojikey

该MCP服务器使用户能够通过emoji密钥跨会话保持一致的LLM交互风格,支持emoji密钥的存储、检索和历史记录管理功能。

mcp dev server

mcp-dev-server是一个MCP服务器,为Claude提供软件开发项目上下文管理、代码执行和项目构建等功能,增强其在软件开发领域的应用能力。

mcp weather server example

一个基于 MCP 协议的天气服务示例,提供当前天气信息资源和获取天气预报的工具。

jira mcp server

基于MCP协议的Jira服务,提供Jira项目和issue的访问与操作工具。

mcp server on raspi

一个在树莓派上运行的MCP服务器,提供简单的笔记存储和总结功能,演示了资源管理、Prompt模板和工具注册的核心MCP服务器能力。

mcp server example v2

一个使用 FastAPI 框架实现的简单 MCP 服务器示例,提供基于 Prompt 模板的上下文服务。

mcp server home assistant

将Home Assistant智能家居平台的功能通过Model Context Protocol (MCP) 协议转换为标准化的上下文服务,使LLM应用能够安全、可扩展地访问和控制Home Assistant。

mcp server hello

一个基于 Rust 的 MCP 服务器模板,演示了如何实现资源、Prompt 模板和工具的托管与管理,并提供与 LLM 客户端进行 JSON-RPC 通信的基础框架。

smallcloud mcp server

一个演示性质的MCP服务器,展示了如何使用Model Context Protocol SDK构建工具服务,可与Claude Desktop等MCP客户端集成。

mcp playground

该仓库提供了一个基于Model Context Protocol (MCP) 的天气服务器示例,以及一个使用OpenAI模型作为MCP客户端主机的示例,演示了如何通过MCP协议调用工具获取天气预报。

MCP Developer Guide

本仓库提供了一个基于Python和MCP库的Claude MCP服务器开发指南和基础实现示例,帮助开发者快速搭建可与Claude客户端集成的MCP服务器。

foxy contexts

基于Golang开发的库,用于声明式构建Model Context Protocol (MCP) 服务器,支持资源、工具和Prompt等核心概念,并提供Stdio和SSE传输。

paloalto mcp servers

paloalto-mcp-servers项目为大语言模型应用提供了与Palo Alto Networks防火墙及服务集成的MCP服务器实现,支持LLM通过MCP协议安全可控地访问和管理Palo Alto Networks环境。

notepad server

notepad-server 是一个简单的 MCP 服务器,提供创建、删除、更新和查看Notepad的功能,演示了MCP协议工具的使用。

mcp researcher project

一个模块化的研究助手MCP服务器,集成了LLM提供商、NLP工具和知识图谱管理,为上下文感知的应用提供后端服务。

mcp chat

mcp-chat仓库提供了一个简单的MCP服务器实现,允许LLM客户端通过工具调用读取服务器本地文件系统中的文件。

perplexity server

一个MCP服务器,通过 Perplexity AI API 提供联网搜索功能,并以工具形式暴露给LLM客户端。

mcp boilerplate

MCP Boilerplate项目是一个用于快速搭建MCP服务器的脚手架,实现了基础的工具注册和调用功能,方便开发者快速构建与LLM客户端交互的上下文服务后端。

redmine mcp server

Redmine MCP Server插件为LLM应用提供项目管理系统Redmine的上下文信息和工具能力,通过SSE协议通信。

search fetch server mcp

search-fetch-server-mcp 是一个基于 TypeScript 的 MCP 服务器,提供笔记管理、网页内容抓取和 DuckDuckGo 搜索等功能,演示了资源、工具和 Prompt 的核心概念。

anthropic mcp

该仓库提供了一个基于Model Context Protocol (MCP) 的天气服务器示例,展示了如何构建可被LLM客户端调用的工具服务。

mcp kotlin sdk

MCP Kotlin SDK 提供构建和运行 MCP 服务器及客户端的能力,示例代码展示了资源和工具管理功能。

unblu docs explorer

一个MCP服务器,用于探索Unblu文档,并提供文档搜索工具,方便用户查询Unblu产品文档信息。

random num mcp

一个简单的MCP服务器,通过工具调用为LLM应用提供生成随机数的功能。

readwise chat

Readwise Chat 📚💬 是一个 MCP 服务器,允许您使用 Claude Desktop 与您的 Readwise Reader 文档库进行交互,通过工具和资源管理扩展 LLM 的上下文能力。

exa server

Exa MCP Server是一个应用后端,通过Exa API提供AI驱动的代码搜索功能,并以MCP协议标准接口向LLM客户端提供服务。

oatpp mcp

oatpp-mcp 是一个基于 Oat++ 框架构建的 MCP 服务器实现,支持通过 STDIO 和 SSE 协议与 LLM 客户端通信,并提供资源管理、工具调用和 Prompt 模板等核心 MCP 功能。

pylon

Pylon 是一款桌面应用程序,内置 MCP 服务器,为 LLM 客户端提供资源管理、工具调用和 Prompt 模板服务,支持文件系统资源访问和 Ollama 模型集成。

mcp quickstart

该项目是一个快速启动的MCP服务器示例,提供天气查询工具,演示了如何使用Model Context Protocol (MCP) 框架构建可与LLM客户端集成的上下文服务。

claudemcp

claudemcp仓库提供了一个基于MCP协议的天气服务器示例,允许LLM客户端通过工具调用获取实时的天气警报和天气预报信息。

my first mcp server

一个简单的MCP服务器示例,提供了一个石头剪刀布游戏工具,供LLM客户端调用互动。

mcp init

一个简单的MCP服务器,通过OpenWeatherMap API提供当前天气信息和天气预报工具。

mcp client and server

一个简单的MCP服务器实现,提供笔记存储、总结和管理功能,演示了如何通过MCP协议扩展LLM应用的能力。

mcp transport auth

一个简单的MCP服务器实现,演示了基于SSE传输和基本身份验证的工具执行功能。

notes

一个基于 Model Context Protocol 的笔记服务器,提供笔记的存储、检索、总结和添加功能,可通过 MCP 协议与 LLM 客户端交互。

mcp server on raspi

一个简单的MCP服务器,实现了笔记管理功能,允许LLM客户端创建、读取、总结笔记,并通过工具添加新笔记。

mcp server

该仓库实现了一个简单的MCP服务器,提供宝可梦数据作为资源,并提供一个工具来获取宝可梦的统计信息,用于演示MCP服务器的功能。

ghl mcp api

该项目是一个MCP服务器,专注于Go High Level (GHL) API 密钥的管理,为LLM应用提供GHL API的访问能力。

mcp rag

本仓库提供了一个基于Model Context Protocol (MCP) 的RAG服务器示例,通过“retrieve”工具,使LLM能够检索和利用外部文档进行上下文增强。

fp mcp

fp-mcp 是一个基于 TypeScript 的 MCP 服务器,它使用 Fireproof 数据库实现了一个简单的笔记系统,演示了如何通过资源、工具和 Prompt 模板向 LLM 客户端提供笔记功能。

mcp server client

该项目是一个Model Context Protocol (MCP) 服务器和客户端的示例实现,演示了如何使用TypeScript SDK构建基于MCP协议的资源访问服务。

service

dify_service MCP server为LLM客户端提供Dify知识库的访问能力,支持知识库查询工具和资源访问。

mcp dev prompter

Dev Prompter MCP Server是一个轻量级的MCP服务器实现,专注于Prompt模板管理和渲染,通过标准化的MCP协议为LLM客户端提供Prompt服务。

mcp server fetch

该项目是一个 MCP 服务器实现,专注于提供数据获取服务,可能通过工具或资源管理来增强 LLM 的上下文能力。

mcp server example v2

一个使用 FastAPI 框架搭建的简单 MCP 服务器示例,提供基于预设 Prompt 模板的上下文服务。

ex mcp test

ExMCP Test Server 是一个使用 Elixir 语言开发的 MCP 协议测试服务器,实现了资源、工具和 Prompt 模板的管理功能,用于实验和验证 MCP 协议的各项特性。

mcp

提供基于文件系统的MCP服务器,允许LLM客户端安全地访问和操作受限目录中的文件。

mcp php

基于Laravel框架实现的MCP服务器,通过STDIO传输协议为LLM客户端提供资源和工具管理功能。

smallcloud mcp server

SmallCloud MCP Server是一个演示项目,展示了如何为Claude Desktop构建一个基于Model Context Protocol (MCP) 的服务器,提供了一个简单的“hello world”工具作为示例。

mcp perplexity

基于MCP协议,集成Perplexity API,为LLM提供AI增强的互联网搜索工具和带来源引用的答案。

claude mcp weather

一个简单的MCP服务器,通过OpenWeatherMap API提供当前天气和天气预报数据。

modelcontextprotocol go sdk

该项目是Model Context Protocol (MCP) 的Go语言SDK,旨在帮助开发者构建MCP服务器和客户端,为LLM应用提供标准化的上下文管理能力。

modelcontextprotocol servers

该仓库提供了一系列基于Model Context Protocol (MCP) 的服务器参考实现,旨在帮助开发者快速构建LLM应用后端的上下文服务,涵盖文件系统、代码仓库、云服务、数据库等多种外部资源和工具的集成。

workspace db manager

Workspace DB Manager 是一个 MCP 服务器,用于管理工作区数据库,提供文件系统监控和数据库操作工具,支持 LLM 应用访问和管理 SQLite 数据库资源。

test python mcp server

一个用Python编写的MCP服务器示例,提供笔记管理、摘要生成和笔记添加工具,演示了MCP协议的基本功能实现。

federated mcp

federated-mcp是一个实现了Model Context Protocol (MCP) 的分布式运行时系统,专注于联邦AI服务和边缘计算能力,支持资源管理、工具注册和Prompt模板定义等MCP核心功能。

aiservers

aiservers仓库提供了一系列基于Model Context Protocol (MCP) 的参考服务器实现,涵盖文件系统、GitHub、Google服务、数据库、Slack等多种数据源和工具集成。

mcp elastic memory

mcp-elastic-memory仓库是一个基于Elasticsearch构建的可扩展知识图谱MCP服务器实现,为LLM应用提供结构化知识存储、检索和管理能力。

context bank mcp

Context Bank MCP 是一个 MCP 服务器,通过 Onyx API 提供对 AtherOS 知识库的访问接口,支持创建聊天会话和查询知识库功能。

MCP Server for MAS Developments

privateGPT MCP服务器桥接MCP客户端和privateGPT API,提供安全可扩展的上下文服务框架。

goai

GoAI库提供了一个灵活的MCP服务器实现,支持资源管理、工具注册、Prompt模板定义,并通过JSON-RPC协议与LLM客户端通信,构建可扩展的AI应用后端。

researcher mcp

Researcher MCP Server是一个研究型MCP服务器,集成了Perplexity AI,旨在提升研究和文档编写效率,提供增强的上下文建模能力。

Memory Graph

Memory Graph是一个基于Redis Graph实现的MCP服务器,为LLM应用提供长期记忆存储和检索功能。

Brightsy

Brightsy MCP服务器是一个代理服务器,将MCP客户端的请求转发到Brightsy AI Agent并返回响应。

QR Code Generator

一个基于Model Context Protocol (MCP) 的服务器,提供QR二维码生成功能,包括资源管理、工具调用和Prompt模板支持。

Business Central

Business Central MCP Server是一个为Cursor编辑器提供Business Central项目开发规范和上下文信息的服务器,支持静态规则和动态规则管理,并提供多种部署选项。

Mistral AI

该项目是一个基于 Model Context Protocol (MCP) 的服务器示例,它提供工具以便 LLM 客户端调用 Mistral AI 的聊天模型,支持文本和图像输入。

Typesense

Typesense MCP Server是一个为LLM提供Typesense搜索引擎数据访问能力的MCP服务器实现。

Langchain Integration

该仓库提供了一个基于Node.js的最小化MCP服务器实现,用于上下文管理和工具执行,并包含一个集成了Langchain和Ollama的客户端示例。

PeakMojo

PeakMojo Server 是一个 Python MCP 服务器,它将 PeakMojo API 的资源和工具以标准化的 MCP 协议形式暴露给 LLM 客户端,实现 LLM 对 PeakMojo 功能的访问和控制。

Eagle.cool

Eagle.cool 仓库实现了一个简单的 MCP 服务器,用于与 Eagle 应用程序交互,目前提供检查 Eagle 应用连接状态的工具,可与 Claude Desktop 等 MCP 客户端配合使用。

Memory Plugin (SQLite)

Memory Plugin (SQLite) 是一个基于 Model Context Protocol 的 MCP 服务器,它使用 SQLite 数据库为大型语言模型提供持久化的记忆存储和检索功能,支持分类管理和上下文加载。

Dojo

Dojo MCP Server是一个基于Go语言实现的MCP服务器,提供资源管理、工具注册和Prompt模板渲染等功能,旨在为LLM应用提供上下文服务。

Dify Workflow

将Dify工作流应用转化为MCP工具,为LLM客户端提供通过MCP协议调用Dify工作流的能力。

Simple Tool (Website Fetcher)

一个简单的MCP服务器,提供网页内容抓取和服务器状态查询工具,专为Cursor IDE集成设计。

Deep Research

Deep Research MCP 是一个Python实现的MCP服务器,提供名为 deep_research 的工具,支持LLM客户端调用多智能体进行深入研究并生成报告。

ISOPlanner

ISOPlanner MCP服务器是一个应用后端,它通过 Model Context Protocol (MCP) 协议,将 ISOPlanner 平台的风险管理数据和功能以资源和工具的形式提供给 LLM 客户端,用于构建智能风险分析和规划应用。

Pluggable Knowledge Graph Memory

基于DuckDB的MCP知识图谱记忆服务器,提供结构化知识存储、检索和管理功能,作为LLM的上下文信息后端。

YouTube Transcript

该MCP服务器为LLM客户端提供获取YouTube视频文字稿的功能,允许LLM分析视频内容。

Bloom Growth

Bloomy MCP 是一个 MCP 服务器,它将 Bloom Growth 的 GraphQL API 连接到 AI 助手,通过 MCP 工具和资源提供数据访问和功能调用能力。

RFK Jr Gateway

RFK Jr Gateway 是一个 MCP 服务器实现,它充当 MCP 客户端和 RFK Jr 端点之间的桥梁,将 RFK Jr 端点暴露为 MCP 资源和工具,并支持 Prompt 定制。

DataBridge

DataBridge MCP服务器是一个示例,演示了如何使用FastMCP框架构建一个能够管理数据桥接和执行信息检索工具的MCP服务器。

HackerNews API

HackerNews API MCP服务器是一个简单的后端应用,它通过工具向LLM客户端提供Hacker News的数据访问能力,并包含一个Prompt模板用于故事信息查询。

File System Operations

该MCP服务器通过标准化的Model Context Protocol接口,为AI模型提供本地文件系统的访问能力,支持创建、读取和列出文件及目录等操作。

UseScraper

UseScraper MCP Server 是一个基于 MCP 协议的服务器,提供网页抓取工具,允许LLM客户端通过简单的API调用抓取网页内容。

Neo4j Graph

Neo4j MCP服务器,提供基于Neo4j图数据库的知识图谱存储和管理功能,为LLM应用提供结构化知识上下文。

Klaudium (Memory)

Klaudium是一个基于Model Context Protocol (MCP) 的增强型内存服务器,专注于知识图谱管理,提供实体、关系的基本操作和记忆管理功能。

Jira

该项目是一个Python实现的MCP服务器,用于集成Jira,为AI应用提供Jira issues的管理和操作工具。

Headless Agents

该项目是一个MCP服务器,用于将 Headless Agents API 集成到 Claude Desktop 等 MCP 客户端,允许通过 `call_agent` 工具调用 Headless Agents 的功能。

Intercom

Intercom MCP Server为LLM应用提供访问Intercom对话数据的能力,支持通过多种过滤条件查询和分析Intercom会话。

Axiom Context

Axiom Context Server为Zed编辑器提供模型上下文服务,允许Zed AI助手访问和利用外部数据源与功能。

All in One

All-in-One MCP服务器,集成GitLab、Jira、Confluence等多种服务,为LLM应用提供丰富的工具和资源,提升上下文理解和任务执行能力。

Substack

该项目是一个MCP服务器,旨在为Claude.ai等LLM应用提供访问和解析Substack平台文章内容的功能,扩展LLM的上下文信息来源。

Coding File Context

文件上下文服务器为LLM提供文件系统访问能力,支持代码分析、智能缓存和实时文件监控,作为LLM的上下文信息后端。

Doc Scraper (Jina.ai)

一个基于Model Context Protocol (MCP) 的服务器,提供从Web URL抓取文档并转换为Markdown格式的功能,方便LLM获取文档内容。

cal2prompt (Google Calendar)

一个可以将Google日历日程转换为LLM Prompt的工具,并可作为实验性的MCP服务器运行,为LLM应用提供日历上下文信息。

Notion Markdown

Notion Markdown MCP Server是一个基于Model Context Protocol的服务器,允许LLM客户端通过标准化的方式访问和操作Notion中的Markdown格式笔记,支持资源浏览、搜索工具和Prompt模板。

txtai

txtai-assistant-mcp 是一个基于 txtai 构建的 MCP 服务器,提供语义搜索和记忆管理功能,增强 Claude 和 Cline 等 AI 助手的能力。

Filesystem (Python)

提供文件系统只读访问的MCP服务器。

Optimized Memory

基于Model Context Protocol (MCP) 构建的知识图谱内存服务器,使用SQLite数据库持久化存储实体和关系,为LLM应用提供结构化知识记忆和检索能力。

Website Downloader (Windows)

MCP Website Downloader 是一个简单的 MCP 服务器,用于下载网站文档并为 RAG 系统建立索引,提供结构化的文档资源访问能力。

Custom Modes (Roo Code)

Modes MCP Server 是一个用于管理自定义操作模式的后端应用,通过 Model Context Protocol (MCP) 协议与客户端通信,提供模式的创建、读取、更新、删除和验证等功能。

Redis

Redis MCP Server: 通过MCP协议将Redis数据库功能作为资源和工具提供给LLM,实现上下文信息的获取和数据操作。

Jira

Jira MCP Server是一个基于Model Context Protocol的服务器,可以连接到Jira并提供Jira数据的访问和操作能力,为LLM应用提供Jira上下文信息。

Gmail

基于Model Context Protocol的Gmail MCP服务器,提供邮件发送、读取、删除等工具,使LLM客户端能够安全访问和操作Gmail邮箱。

ChromaDB

Chroma MCP Server 是一个基于 Model Context Protocol 的服务器实现,通过 Chroma 向量数据库提供语义文档搜索和管理功能,为 LLM 应用提供上下文服务。

Browser Use

Browser Use Server是一个MCP服务器,允许LLM客户端通过工具调用自动化执行网页浏览操作,如截图、获取HTML、执行JS和获取控制台日志。

Langfuse Prompt Management

Langfuse Prompt Management MCP Server为LLM客户端提供Langfuse平台上的Prompt管理服务,支持Prompt检索和动态渲染。

Cline Personas

此仓库实现了一个MCP服务器,用于管理可复用的组件和角色模板,以定制LLM交互行为。

Deep Web Research

基于MCP协议的深度网络研究服务器,提供智能搜索、内容提取和分析工具,支持Claude等LLM客户端进行高级网络研究。

RAT (Retrieval Augmented Thinking)

Deepseek-Claude MCP服务器结合DeepSeek R1的推理能力和Claude 3.5 Sonnet的生成能力,通过OpenRouter提供上下文增强的LLM服务。

Figma Context

Figma Context MCP Server 是一个基于 Model Context Protocol 的服务器,旨在将 Figma 设计数据连接到 AI 驱动的编码工具,例如 Cursor,Windsurf 和 Cline,从而为这些工具提供设计上下文信息,提升设计稿转代码的准确率。

Google Search

此MCP服务器为LLM提供Google搜索和网页内容提取工具,增强LLM处理网络信息的能力。

Attio

Attio MCP Server 是一个连接 Attio CRM 和大语言模型的桥梁,通过 Model Context Protocol (MCP) 协议,使 LLM 客户端能够安全访问和操作 Attio CRM 中的公司数据和笔记功能。

Apache Unomi

该项目是一个MCP服务器,通过集成 Apache Unomi,为 Claude 等 LLM 应用提供用户画像管理和上下文维护能力。

Confluence

Confluence MCP服务器是一个应用后端,它允许LLM客户端通过Model Context Protocol访问和检索Confluence知识库中的页面和博客文章内容。

Specif ai

Specif-ai MCP Server 是一个命令行工具,通过标准输入/输出 (stdio) 运行 MCP (模型上下文协议) 服务器,为 Specif-ai 应用提供结构化规范文档的访问能力,并支持通过工具调用获取文档信息。

Nostrdb

Nostrdb MCP Server是一个允许LLM通过ndb命令行工具查询和操作Nostr数据库的MCP服务器实现。

Perplexity Search

此MCP服务器集成了Perplexity AI API,提供具有预定义和自定义提示模板的聊天补全功能,适用于文档生成、安全分析和代码审查等多种任务。

Llms.txt

基于MCP协议,将Awesome-llms-txt仓库的文档链接作为资源提供给LLM客户端,方便对话中引用相关文档。

Obsidian

Obsidian MCP服务器,为LLM提供Obsidian知识库的上下文访问能力。

Home Assistant

MCP服务器Home Assistant集成,允许LLM客户端访问和控制Home Assistant智能家居系统。

Lingo.dev

Lingo.dev CLI 提供 MCP 服务器模式,允许 AI 客户端调用其翻译工具进行文本本地化。

Bluesky Context Server

Bluesky Context Server是一个MCP服务器,允许LLM客户端通过工具访问Bluesky社交网络数据,例如获取用户信息、帖子和关注列表。

MCP Server Starter

MCP Server Starter Template:一个用于构建MCP服务器的生产就绪型模板,使用TypeScript编写,支持工具注册和Claude Desktop集成。

MCP Servers

该仓库提供了一系列 MCP 服务器的参考实现,演示了如何使用 Typescript 和 Python SDK 构建能够为 LLM 提供工具和数据访问能力的后端服务。

DigitalFate

DigitalFate是一个企业级AI Agent框架,提供LLM调用、工具集成和任务编排能力,并兼容MCP协议,用于构建可扩展的LLM应用后端服务。

Trieve

Trieve MCP服务器是为LLM应用提供搜索、推荐和RAG功能的一体化解决方案后端实现,支持自托管,并可通过Smithery等工具便捷安装。

Minima (Local RAG)

Minima MCP服务器为本地RAG应用提供与LLM客户端(如Anthropic Claude)进行上下文交互的桥梁,支持资源访问、工具调用和Prompt模板。

Text Editor

基于MCP协议的文本编辑器服务器,为LLM工具提供高效、安全的行级文本文件读写和编辑功能。

DigitalFate

DigitalFate是一个企业级AI Agent框架,通过MCP工具集成、任务编排和多LLM支持,简化LLM应用开发和部署,提供可扩展和安全的上下文服务。

MCP Registry Server

该项目是一个MCP服务器,提供工具用于检索和发现其他可用的MCP服务器,帮助用户快速找到所需的MCP服务。

Server Playground

基于TypeScript构建的MCP服务器实验场,提供加法计算和HTTPBin JSON数据获取工具,用于学习和测试MCP服务器与LLM客户端的集成。

Source Relation Server

Source Relation Server是一个MCP服务器,用于分析指定目录下源代码的依赖关系,支持多种编程语言。

Super Secret MCP Server

一个简单的Node.js实现的MCP服务器,提供生成美国州和特色汤组合的工具,演示了MCP基本功能。

Memory Bank Server

Memory Bank Server是一个MCP服务器,用于远程管理和访问基于文件的记忆库,支持多项目和安全的文件操作。

my server

这是一个基于 Model Context Protocol 的笔记服务器,允许用户通过客户端创建、读取和总结笔记。

Seq MCP Server

Seq MCP Server 是一个基于 Model Context Protocol 的服务器实现,它允许 LLM 客户端通过标准化的方式访问 Seq 日志和监控系统的数据,并调用其功能,例如查询日志事件、信号和告警状态。

IaC Memory Server

IaC Memory MCP Server为Claude AI提供IaC组件的持久化内存,支持Terraform和Ansible资源的版本跟踪和关系映射,增强AI在IaC领域的应用能力。

Perplexity MCP Server

一个简单的MCP服务器,通过Perplexity AI提供网页搜索工具,增强LLM客户端的上下文信息获取能力。

RagRabbit

RagRabbit仓库实现了基于MCP协议的服务器,为LLM客户端提供文档检索和LLMs.txt资源访问能力。

Columbia MCP Servers

Columbia MCP Servers仓库是为LLM应用构建的后端服务,基于Model Context Protocol (MCP) 提供资源管理、工具注册和Prompt模板服务,支持Docker部署和高可用架构。

Quarkus MCP Server

Quarkus MCP Server是一个基于Quarkus框架的扩展,用于简化Model Context Protocol (MCP) 服务器的开发,帮助开发者轻松构建LLM应用的后端服务,实现与外部数据源和工具的无缝集成。

SingleStore MCP Server

SingleStore MCP Server 是一个 MCP 服务器,允许 LLM 客户端连接 SingleStore 数据库,并提供查询、数据管理和模式探索等工具。

Tavily Search

Tavily Search MCP Server 是一个为LLM应用设计的后端服务,它通过集成 Tavily Search API 提供强大的网页搜索功能,使LLM能够访问和利用最新的网络信息。

RAT MCP Server

RAT MCP Server 是一个基于 Model Context Protocol 的服务器,它结合 DeepSeek R1 的推理能力和 Claude 3.5 Sonnet 的生成能力,通过 OpenRouter 提供增强的 AI 对话服务。

Eunomia MCP Server

Eunomia MCP Server是一个用于编排和管理多个MCP服务器的开源项目,并集成数据治理能力。

Weaviate MCP Server

Weaviate MCP Server 是一个基于 Model Context Protocol 的服务器,它利用 Weaviate 向量数据库为 LLM 提供知识库搜索和记忆存储功能,增强 LLM 的上下文处理能力。

Knowledge Graph Memory Server

基于本地知识图谱的MCP服务器,为LLM提供持久化记忆功能,支持实体、关系和观察的存储、检索和管理。

Lodestar MCP

Lodestar MCP 是一个基础的MCP服务器实现,用于文档查询,提供了资源和工具的示例,展示了MCP服务器的基本结构和功能。

Perplexity AI MCP Server

Perplexity AI MCP Server 是一个基于 Model Context Protocol 的服务器实现,它集成了 Perplexity AI 的 API,为 LLM 应用提供强大的搜索工具。

Journaling Server

Journaling Server 是一个基于 MCP 协议的个人日记服务器,能够记录用户对话,进行情感分析,并提供最近日记的访问接口,方便 LLM 应用集成和调用。

JinaAI Search

Jina AI Search MCP Server 是一个基于 Model Context Protocol 的后端应用,它利用 Jina.ai Search API 为 LLM 客户端提供强大的网页搜索功能,帮助 LLM 获取最新的网络信息。

MCP PIF

MCP PIF 是一个基于 Model Context Protocol 的服务器实现,提供文件系统操作、日志记录和思维工具等功能,旨在促进人与 AI 之间的结构化交互。

Phabricator MCP Server

基于 Model Context Protocol (MCP) 协议实现的 Phabricator 服务器,允许 LLM 客户端通过标准接口获取 Phabricator 任务信息。

Data Extractor

提取代码中的数据和SVG组件,转换为JSON和SVG文件,为LLM提供结构化上下文信息。

HeFeng Weather

HeFeng Weather MCP Server 是一个基于 Model Context Protocol 的服务器,为 LLM 应用提供中国城市天气预报查询工具,支持实时、小时和多天预报。

Figma MCP Server

Figma MCP Server 是一个基于 Model Context Protocol 的服务器,用于分析 Figma 文件结构并提取节点层级信息,为 LLM 应用提供 Figma 设计上下文。

DigitalFate

DigitalFate是一个企业级AI代理框架,提供MCP兼容的服务器,用于高效编排LLM调用、工具和任务,支持生产环境部署和多客户端处理。

Gyazo Image Integration

用于将用户的 Gyazo 图片库连接到 LLM 应用的 MCP 服务器,支持访问和搜索 Gyazo 图片及元数据。

MyMCP Server

MyMCP Server是一个多功能MCP服务器,集成了GitLab、Jira、Confluence、Gmail等常用工具,为LLM应用提供上下文数据访问和工具调用能力,提升开发和工作效率。

Remote MCP Client

Remote-MCP是一个用于构建远程Model Context Protocol (MCP) 服务器和客户端的库,通过tRPC实现对MCP功能的远程访问。

Systemprompt MCP Core

Systemprompt MCP Core 是一个基于 Model Context Protocol (MCP) 的服务器,用于创建、管理和扩展 AI 代理,提供强大的 Prompt 和工具管理系统。

HubSpot

HubSpot MCP Server为LLM应用提供HubSpot CRM的连接能力,支持访问联系人、公司等资源,并能创建和查询HubSpot数据。

Gentoro MCP NodeJS Server

Gentoro MCP Server 是一个桥接服务器,它允许 Claude 等 LLM 客户端通过 Model Context Protocol (MCP) 访问 Gentoro 平台提供的工具和服务。

GitHub MCP Server for Pera1

该MCP服务器通过 Pera1 服务连接 GitHub 代码仓库,为 Claude 等 LLM 应用提供 GitHub 代码检索工具。

Remote Server

Remote Server是一个可配置的MCP服务器,它从远程配置动态加载工具、资源和Prompt,充当MCP客户端与远程API之间的桥梁。

Titan Memory Server

Titan Memory Server 是一个为LLM设计的MCP服务器,提供神经网络记忆系统,通过工具实现跨会话的状态保持、模型训练和记忆管理。

Tenki

Tenki是一个MCP服务器,提供基于日本城市名称的天气预报查询工具,允许LLM客户端调用以获取日本特定地区的天气信息。

Verodat MCP Server

Verodat MCP Server是一个连接Verodat数据平台和AI应用的桥梁,它基于Model Context Protocol协议,为LLM客户端提供数据集管理、AI查询等功能,实现数据驱动的AI应用集成。

MCP Notes

基于MCP协议的个人笔记服务器,支持AI模型进行笔记管理,提供资源和工具接口,使用DynamoDB存储。

LlamaCloud

LlamaCloud MCP Server是一个连接到LlamaCloud托管索引的MCP服务器,提供知识库查询工具,为LLM应用提供上下文信息。

Meilisearch MCP

Meilisearch MCP 服务器,为 LLM 应用提供 Meilisearch 搜索引擎的上下文访问能力。

Expert Server

Expert Server是一个基于Model Context Protocol的服务器,利用Claude AI提供API文档的智能查询和API查询生成工具,帮助用户更便捷地理解和使用API。

MCP Server Starter

MCP Server Starter是一个基于TypeScript的模板,用于快速构建MCP服务器,方便AI智能体与各种工具和数据源集成。

Agentico MCP Server

Agentico MCP Server通过外观模式简化了MCP服务器的构建,方便开发者轻松创建和注册工具,为LLM应用提供上下文服务。

Redis Server

Redis MCP Server是一个基于Model Context Protocol (MCP) 的应用后端,它提供了一系列工具,使LLM客户端能够通过标准化的方式与Redis数据库进行交互,实现数据存储、检索和管理等功能。

LLM Context

LLM Context是一个MCP服务器,旨在帮助开发者将代码项目和文本内容以结构化的方式注入到LLM聊天界面中,提升LLM的上下文理解能力。

CLI

CLI MCP Server是一个安全的MCP服务器,允许LLM客户端通过工具安全地执行预定义的命令行操作,并提供详细的安全配置信息。

MCP MongoDB Server

MCP MongoDB Server 是一个 MCP 服务器,允许 LLM 客户端通过工具和 Prompt 模板访问和操作 MongoDB 数据库中的数据。

Tavily

Tavily MCP Server是一个为LLM应用提供AI驱动网页搜索能力的MCP服务器,通过Tavily API集成多种搜索工具,支持Prompt模板定制,助力LLM获取最新网络信息。

OpenRouter MCP Server

该项目是一个 MCP 服务器,通过 OpenRouter.ai 统一接口,为 LLM 应用提供对多种 AI 模型的高效访问和管理能力。

Perplexity Search MCP

一个基于 Model Context Protocol 的服务器,提供通过 Perplexity API 进行网页搜索的工具,使 LLM 应用能够获取最新的网络信息。

Kagi

Kagi MCP 服务器通过 Model Context Protocol 协议为 LLM 客户端提供网页搜索工具,使其能够检索最新的网络信息。

Dify MCP Server

Dify MCP Server 是一个基于 Model Context Protocol 的服务器实现,它将 Dify 工作流作为工具集成到 MCP 协议中,使 LLM 客户端能够通过 MCP 标准调用 Dify 的功能。

Apple Tools Integration

Apple Tools Integration是一个MCP服务器,通过Model Context Protocol协议,将苹果设备原生应用如信息、备忘录、通讯录、邮件、提醒事项以及网页搜索功能集成到LLM应用中,扩展LLM的功能边界。

Exa MCP

Exa MCP服务器是一个允许AI助手(如Claude)使用Exa AI搜索API进行网页搜索的工具,通过Model Context Protocol (MCP) 协议提供安全可控的上下文信息服务。

MCP Server Playwright

使用 Playwright 驱动的 MCP 服务器,为 LLM 提供网页浏览、交互和信息获取能力,支持浏览器自动化操作。