← 返回首页

"工具调用"标签的搜索结果

找到 452 个结果

srchd: 多智能体协作研究平台

`srchd` 通过模拟学术发表与评审系统,编排多个AI智能体协作解决复杂的推理和搜索密集型问题,尤其擅长漏洞搜索,并集成了多个MCP服务器提供核心功能。

Artinet SDK

Artinet SDK 是一个TypeScript库,提供了构建Agentic Communication的AI Agent,并支持将其作为Model Context Protocol (MCP) 服务器向LLM客户端提供上下文信息和功能。

AI助手平台 - Polychat

一个完整的AI平台,通过集成的AI代理支持MCP协议,提供多模型聊天、工具调用、知识检索和多应用服务。

Atlas Chat UI 与模块化MCP服务器

一个现代化的LLM聊天界面,通过集成多个内嵌的Model Context Protocol (MCP) 服务器,提供丰富的工具调用、RAG数据源和可定制的LLM交互模式。

Claude Skills MCP 服务器

一个基于Model Context Protocol (MCP) 的服务器,为任何AI模型提供智能的Claude Agent技能搜索和文档访问功能。

Google ADK个性化购物智能代理

该仓库提供了一个基于Google Agent Development Kit (ADK) 构建的个性化购物智能代理,并展示了如何将其部署为支持MCP协议的服务器,以提供上下文信息和工具服务。

NVIDIA NeMo Agent Toolkit

灵活的NVIDIA NeMo Agent Toolkit,能够连接企业级代理与各类数据源和工具,并通过Model Context Protocol (MCP) 发布这些能力,使其成为可扩展的MCP服务器。

MCP服务器开发入门与FastMCP实践

该仓库提供Model Context Protocol (MCP) 服务器开发的全面指南,并包含基于FastMCP框架的Python实现示例,演示如何构建、配置和运行MCP工具服务器。

Codex Agent 服务容器

Codex Agent 服务容器提供了一个 Docker 化环境,内置多种 Model Context Protocol (MCP) 服务器,赋能 LLM 客户端通过标准化协议调用外部工具和管理上下文。

XMCP

一个用于使用 TypeScript 构建和部署 Model Context Protocol (MCP) 服务器的框架,旨在简化 LLM 应用上下文服务开发。

AI虚拟助理平台

一个基于LlamaStack构建的AI虚拟助理平台,支持知识库集成、工具调用,并包含可扩展的MCP工具服务器。

Swarm Box - Claude CLI 开发环境

一个预配置的容器化开发环境,内置 Claude CLI 和基于 Chrome DevTools 的 MCP 服务器,支持 Docker 和 Podman。

Inkeep Agent运行时API

一个可扩展的AI Agent运行时后端,通过Model Context Protocol (MCP) 和A2A协议暴露AI Agent能力,提供工具调用、上下文管理和会话交互服务。

Agntcy应用SDK

一个Python SDK,用于构建和连接支持MCP等代理协议的智能体应用,提供多传输协议的MCP服务器与客户端功能。

Mastra AI 框架

Mastra是一个用于构建AI应用和智能体的TypeScript框架,提供强大的工作流编排、上下文管理、工具调用和多模型集成能力,支持独立服务器部署。

Fastify MCP 服务器插件

将 Fastify 应用转变为高性能、可流式传输的 MCP 服务器,支持 AI 助手安全连接外部数据和工具。

MCP Node.js 服务端脚手架

为基于 Model Context Protocol (MCP) 构建的 Node.js 服务器提供核心框架和常用功能,简化 LLM 应用后端开发。

Auth0 FastMCP 认证服务器

提供一个集成了 Auth0 认证流程的 FastMCP 服务器,用于为 LLM 客户端提供安全的上下文和工具访问。

Conductor Gateway

一个高性能的自主网关服务,通过SSE流和MCP协议将Web应用与Conductor智能体执行系统连接。

Context7

Context7 是一个基于 Model Context Protocol (MCP) 的服务器,为 AI 应用提供上下文信息和智能辅助能力。

Avalan AI代理微框架

Avalan是一个多后端、多模态的AI代理微框架,提供统一SDK和CLI,支持在本地、私有云和公共云上构建、编排和部署智能AI解决方案,并原生支持MCP协议。

AgentGateway

AgentGateway是一个为Agentic AI设计的连接平面,支持Model Context Protocol (MCP) 和Agent2Agent (A2A),提供安全性、可观测性和治理能力,并能将传统API转换为MCP资源。

持久化AI记忆系统MCP服务

为AI助手提供持久化、可搜索的记忆存储、上下文管理、工具调用及自我反思能力。

.NET MCP 服务器示例与开发指南

一个综合性的 .NET AI 工作坊,提供 Model Context Protocol (MCP) 服务器的开发示例,使 LLM 客户端能够调用外部工具并获取上下文信息。

MCP Go SDK

官方Model Context Protocol (MCP) Go语言软件开发工具包,提供构建MCP客户端和服务器的API与实用工具。

Perplexity AI MCP 服务器

将 Perplexity AI 问答和搜索能力通过 Model Context Protocol 封装为工具,为 LLM 客户端提供高级上下文服务。

FastMCP Python上下文服务器模板

基于Python和FastMCP构建的生产级Model Context Protocol (MCP) 服务器模板,提供工具、资源和Prompt管理、多协议传输及OAuth2认证支持。

.NET MCP 天气服务托管于Azure Functions

这是一个基于.NET MCP SDK构建的天气信息服务,可作为MCP服务器托管在Azure Functions上,为LLM提供天气查询工具。

MCP上下文协议服务器

一个基于TypeScript构建的MCP服务器实现,提供上下文信息、工具执行、Prompt渲染以及OAuth认证和会话管理功能。

Go语言MCP服务器(含OpenTelemetry)

一个基于Go语言实现的Model Context Protocol (MCP) 服务器,内置OpenTelemetry支持,提供LLM应用所需的上下文服务和工具调用能力。

Reboot 耐久型MCP服务器框架

一个基于Python的MCP服务器框架,提供持久化会话、工具和资源管理,支持服务器重启后安全地恢复LLM交互。

Node-RED MCP 服务器

一个现代化、生产就绪的Model Context Protocol (MCP) 服务器,用于将Node-RED的流、节点和运行时信息暴露给大型语言模型(LLM)客户端。

LitServe

一个用于部署AI模型、Agent、RAG和MCP服务器的轻量级、高性能Python框架。

Go语言MCP API开发框架

Baby API是一个极简的Go语言CRUD API框架,通过集成Model Context Protocol (MCP) 功能,能快速构建面向LLM应用的上下文服务后端。

MCP日记应用服务器

一个基于Model Context Protocol (MCP) 实现的个人日记应用后端,提供日记管理、标签分类、AI辅助标签建议及内容补全等功能。

Symfony AI Demo MCP 服务器

一个基于 Symfony 框架构建的 MCP 服务器示例,通过 JSON-RPC 协议向 LLM 客户端提供工具服务。

Serverless API Helper (MCP)

提供AI赋能的API开发指导和OpenAPI构建工具,通过MCP协议与LLM客户端交互。

Xaibo

模块化AI Agent框架,可将Agent暴露为Model Context Protocol (MCP) 服务器

Odoo MCP Server

使AI助手能够通过Model Context Protocol与Odoo ERP系统交互的服务器。

Discord通知MCP服务器

一个基于MCP协议,用于向Discord发送通知的服务器,可在Cloudflare Workers上部署。

Pluggy MCP 服务器

基于 MCP 协议,提供通过 Pluggy API 访问用户金融账户和连接器列表的功能。

Intelli

构建和运行Model Context Protocol (MCP) 服务器的工具,支持数据和功能标准化暴露给LLM。

lkr CLI - Looker MCP 服务器

结合 Looker SDK 提供 CLI 工具,并内置 MCP 服务器为 LLM 客户端提供 Looker 上下文和功能。

Python MCP 工具服务器集合

为AI编程助手提供文件操作和本地文档查询功能的MCP服务器集合。

Official Ampersand MCP Server

基于Model Context Protocol,通过Ampersand平台连接至150+ SaaS应用,为大型语言模型提供丰富的工具集。

WiFi MCP Server

提供Wi-Fi网络扫描、状态查询、信号监测等功能的MCP服务器,供LLM客户端集成使用。

Gen3数据共享平台MCP服务器

连接大模型客户端与Gen3数据共享平台,提供Schema元数据、查询构建和执行能力。

Madness Interactive - Omnispindle MCP 服务器

Madness Interactive 生态中的核心 MCP 服务器,用于分布式任务管理、Agent 协同与上下文服务。

维基百科MCP服务

Strands Agent仓库中包含的维基百科MCP服务,通过MCP协议提供维基百科搜索和摘要功能。

AgentCrew

强大的多智能体AI助手框架,支持多种LLM提供商和工具集成,并提供基于A2A协议的上下文服务和工具调用服务器能力。

mcp-php-server

基于PHP实现的Model Context Protocol (MCP) 服务器,为LLM提供上下文和工具能力。

Aura AI伴侣 MCP 服务

为Aura AI伴侣提供MCP接口,使外部LLM客户端能访问其记忆、情绪分析等核心功能。

金融领域MCP服务器

为LLM客户端提供股票行情、财报、新闻等金融数据访问及分析工具。

ExMCP: Elixir MCP 实现

基于 Elixir 语言,提供完整的 Model Context Protocol (MCP) 客户端和服务器实现,赋能 AI 模型安全交互。

TypeScript MCP资源服务器示例

基于TypeScript和Firestore,演示OAuth认证和工作空间隔离的MCP资源服务器参考实现。

Agentic Framework MCP服务器

基于MCP协议,托管多种AI工具(如天气、航班、量子计算等),为LLM客户端提供上下文和能力。

Itential MCP 服务器

连接大语言模型至Itential平台,提供自动化和平台管理工具的MCP服务器。

Genie MCP Server

一个基于 MCP 协议的服务端,使 LLM 能通过工具和资源与 Databricks Genie 交互,获取数据和答案。

Swarmonomicon

基于代理、工具和任务列表的Rust后端服务,通过API和MQTT为LLM应用提供结构化上下文和功能。

Jarvis

Jarvis是一个本地AI助手,通过MCP架构集成了LLM和外部服务,当前支持使用自然语言发送Gmail邮件。

Laravel Loop

将 Laravel 应用能力通过 MCP 协议暴露给 AI 助手的后端框架。

Omnispindle

基于 FastMCP 协议的待办事项 (Todo) 及经验总结 (Lesson Learned) MCP 服务器,提供数据管理和工具调用能力。

Internet Computer MCP 服务器开发工具包

在 Internet Computer (IC) 上构建 Model Context Protocol (MCP) 服务器的开发工具包。

Embabel Agent Framework

基于JVM的智能代理框架,支持复杂规划与工具调用,可作为MCP服务器为LLM提供服务。

X402 & Walrus MCP Server

一个基于MCP协议的AI上下文服务器,提供数据访问和分布式存储工具。

MCP (Model Control Protocol) 服务器

基于 Model Context Protocol 构建的模块化服务器,用于管理AI模型、注册工具、提供上下文服务。

MCP 可执行服务器

将基于 Model Context Protocol (MCP) SDK 构建的服务器打包成独立可执行文件,支持灵活配置和多种连接方式。

OPNsense MCP 服务器

通过AI客户端使用自然语言管理OPNsense防火墙,提供规则、接口、服务等多种管理功能。

ISE MCP 服务器

一个基于MCP协议的服务器,通过JSON-RPC将思科ISE(Identity Services Engine)数据动态封装为可调用的工具。

DigitalOcean MCP 服务器

通过 Model Context Protocol (MCP) 连接 AI 客户端与 DigitalOcean 资源,实现智能化的云管理。

MCP 示例计算器服务器

提供一个基于 MCP 协议的计算器工具服务器示例,可供 LLM 调用进行数学计算。

TinyAgents 天气MCP服务器示例

基于MCP协议实现的天气数据后端服务,提供天气预警和预报查询工具供LLM客户端调用。

kubectl-ai: Kubernetes AI助手

通过自然语言简化Kubernetes管理,并可作为MCP服务器提供Kubernetes工具能力给LLM客户端。

Node.js MCP 服务器可执行版

将 Node.js 构建的 MCP 服务器打包为可执行文件,提供资源、工具、提示等上下文服务。

AWS Lake Formation MCP服务器

通过Model Context Protocol工具管理AWS Lake Formation权限

VistA AI Context Server

为大语言模型提供VistA医疗系统患者和药物信息的MCP服务器实现。

AgentToAgent MCP 服务器实现

基于FastMCP框架构建的Model Context Protocol (MCP) 服务器实现,用于将代理能力暴露给大型语言模型客户端。

Azure MCP Server 示例

演示如何使用 Azure MCP 服务器通过 LLM 访问 Azure 资源,支持工具调用和上下文管理。

Agentic Slack Bot

提供基于MCP协议的Agent能力服务,支持网页抓取等工具调用。

多源MCP服务器代理网关

一个连接LLM(如Claude)与多个MCP服务器的代理,聚合管理工具并提供统一接口。

MCPheonix

基于Elixir/Phoenix实现的简化版Model Context Protocol (MCP) 服务器,提供大模型上下文和工具调用服务。

Lightpanda Go MCP 服务器

基于Go语言实现的MCP服务器,提供浏览器交互和网页内容提取工具。

MCP命令行工具适配器

通过MCP协议安全地暴露命令行工具,供LLM客户端调用执行。

餐厅AI助手 MCP后端

基于Model Context Protocol (MCP),为AI语言模型提供餐厅点单、服务员呼叫等功能的上下文和工具服务。

Django MCP 服务器模块

将 Django 应用的能力通过 Model Context Protocol (MCP) 暴露给 LLM 客户端和 AI 代理,实现无缝交互。

MCP笔记助手服务器

一个基于Model Context Protocol (MCP) 的服务器,为AI助手提供笔记记录、查询最新笔记和生成笔记摘要的功能。

Fluent MCP

用于使用流畅接口快速构建 Model Context Protocol (MCP) 服务器的 JavaScript/TypeScript 库。

Contexa SDK(含MCP服务器构建能力)

标准化AI agent开发、部署与互操作框架,提供构建和运行MCP兼容服务器的能力。

Future Quiz

一个智能问卷系统后端,集成AI能力并支持MCP协议,为LLM提供问卷相关的工具和上下文服务。

Kakao MCP 集成服务器

基于MCP协议,连接AI智能体与Kakao服务(如消息、日历)的后端实现。

HTTP Privacy

多语言AI后端,通过集成MCP协议库提供LLM上下文服务(资源、工具)。

Flux

基于MCP协议,提供与AO(Arweave计算层)交互的AI工具集服务器。

Melina.js MCP 服务器组件

基于Bun运行时,为LLM应用提供资源、工具和Prompt模板的标准上下文服务器。

FastMCP 样板项目

快速构建 MCP 服务器应用的起始样板,包含基础工具、资源、提示模板示例。

Qilin MCP服务器框架

一个用Go语言构建的Model Context Protocol (MCP) 服务器框架,用于向LLM提供资源和工具服务。

Jira MCP Server

提供 MCP 工具与 Jira 交互,使 LLM 能够获取、创建和搜索 Jira 问题。

PayAI MCP 服务器

将 PayAI AI 代理市场集成到支持 MCP 协议的 LLM 客户端中,允许查看和雇用 AI 代理。

AWS EC2 定价查询服务

提供 AWS EC2 实时定价信息,通过 MCP 协议供大型语言模型或自动化脚本调用。

FastMCP-Scala: Scala MCP 服务器构建库

基于Scala 3和ZIO,用于快速、便捷地构建符合Model Context Protocol (MCP) 标准的应用后端服务器。

Mnemo AI代理框架

一个基于 Model Context Protocol (MCP) 构建的Python框架,用于创建AI代理、编排工作流,并通过标准化的方式向LLM提供工具和数据访问能力。

UnifAI 工具 MCP 服务器

将 UnifAI 平台上的工具通过 Model Context Protocol (MCP) 暴露给 LLM 客户端。

Saqr-MCP

基于MCP协议的Python应用,为本地LLM提供网页搜索等工具能力。

Cloudera ML MCP 服务器

通过 Model Context Protocol (MCP),为 LLM 提供访问和管理 Cloudera Machine Learning 资源的工具集。

MCP Daemon 后端开发框架

一个基于 Rust 的 Model Context Protocol (MCP) 后端开发框架,简化 LLM 应用与外部数据及工具的集成。

花园伙伴 MCP 服务器

一个基于 Cloudflare Worker 实现的 MCP 服务器,提供花园管理工具集。

AWS MCP 服务器示例集

提供在 AWS Lambda 和 ECS 上部署无状态/有状态 MCP 服务器的示例,展示不同架构。

MCP Swift SDK

为Swift开发者提供构建和连接遵循Model Context Protocol (MCP) 标准的服务器和客户端的工具包。

Plasma

基于 Ruby 的 MCP 服务器构建 SDK,提供 Rails 风格的约定,简化工具、Prompt 和资源开发。

Apache Doris 模型上下文服务器 (MCP)

基于 MCP 协议为大型语言模型 (LLM) 提供访问 Apache Doris 数据库的工具和上下文信息。

VisionCraft MCP 服务器

通过MCP协议为AI助手提供专业的计算机视觉和生成式AI知识库访问能力。

Swagger MCP 服务器

将Swagger/OpenAPI定义的API接口转换为MCP工具,提供给LLM客户端调用。

Sqirvy MCP 服务器 (Go语言)

使用Go语言实现的Model Context Protocol (MCP)服务器,为LLM提供资源、工具及Prompt服务。

MCP国际象棋服务器

一个基于MCP协议的国际象棋后端,赋能大型语言模型进行棋局互动和分析。

RuoYi AI 助手平台

基于RuoYi框架构建的AI助手平台,提供LLM所需的上下文、工具及Prompt服务,支持多种AI功能。

FastAPI MCP 服务器

基于FastAPI的MCP服务器,为大型语言模型提供上下文管理、工具调用和SSE实时通信能力。

FastAPI FastMCP 集成服务器

集成FastAPI和FastMCP,快速构建可扩展的LLM上下文服务器,支持工具、资源、Prompt自动发现。

AgentMode MCP 服务器

连接AI到数据库、数据仓库、数据管道及云服务的全能型Model Context Protocol (MCP) 服务器。

Mem0 MCP 服务器

将 Mem0.ai 持久记忆系统集成到 AI 助手的 MCP 服务器。提供工具用于存储、检索、搜索和管理不同类型的用户记忆。

MCP 进程管理器

一个基于 MCP 协议的服务器,为 AI 代理和工具提供标准化的背景进程管理能力。

Bilibili 字幕 MCP 服务器

为AI客户端提供获取Bilibili视频字幕的能力。

Node.js上的.NET WebAssembly MCP服务器

一个在Node.js环境下通过WebAssembly运行.NET ASP.NET Core实现Model Context Protocol (MCP) 服务器的基础示例。

Research Graph MCP服务器

基于AIRAS框架,提供论文检索等AI研究自动化功能作为MCP工具。

Jackal MCP 服务器

基于 Model Context Protocol (MCP) 实现的服务器,提供与 Jackal Protocol 分布式存储网络交互的功能。

OpenAstra

一个基于对话的API开发平台,通过集成和管理Model Context Protocol (MCP) 服务器,为LLM提供API交互和执行能力。

MCP协议应用实践

通过实战案例演示构建基于Model Context Protocol的AI后端服务,连接大模型与外部能力。

Hatchling

一个交互式CLI聊天应用,集成Ollama本地大模型,内置并使用Model Context Protocol (MCP) 服务器提供工具能力。

ChatMcp

一个集成了多种大型语言模型和外部工具服务的AI聊天与工具平台,支持丰富的AI交互和自动化能力。

本地MCP计算工具服务器示例

该项目是一个基于MCP协议的本地服务器示例,提供数学计算工具供LLM客户端调用,展示了如何实现本地函数调用能力。

Daan

轻量级AI客户端,集成MCP协议,通过工具和上下文扩展LLM能力。

内容管理系统 AI 适配器示例

这是一个示例项目,展示了如何构建一个 MCP 服务器,通过访问控制为 AI 提供对内容管理系统 API 的能力。

Azure AI 旅行助手

一个基于Model Context Protocol的多智能体AI旅行应用示例。

PHP MCP Server

核心PHP库,用于构建符合Model Context Protocol (MCP)标准的服务器,轻松将PHP应用逻辑暴露给LLM客户端。

MCP待办事项应用

一个通过Model Context Protocol (MCP) 为AI助手提供待办事项清单访问和管理能力的服务器。

泰国车牌卜卦 MCP 服务器

一个基于Model Context Protocol (MCP)的后端服务,提供泰国车牌和生日相关的卜卦及运势查询功能。

Node.js/TS Todo MCP服务器

一个基于Node.js/TypeScript实现的MCP服务器示例,提供TODO管理工具集,支持SSE协议。

Genesys Cloud 模型上下文协议服务器

连接大语言模型到 Genesys Cloud,通过 MCP 协议提供队列搜索等功能。

FastAPI MCP LangGraph 模板

集成了MCP服务器、LangGraph和FastAPI的LLM应用模板。

PowerShell MCP (PSMCP)

连接PowerShell脚本与LLM客户端,将脚本转化为可被自然语言调用的AI服务。

SlicerAgent

基于Model Context Protocol (MCP) 的3D Slicer辅助代理后端,提供Slicer功能和数据访问作为工具。

MCP任务管理器示例

基于MCP,将任务管理后端集成到AI客户端,通过自然语言管理任务。

Cloudera AI Agent Studio MCP 服务器

轻量级网桥,将 Cloudera Agent Studio 功能暴露为 MCP 工具,供大型语言模型客户端调用。

Open IMI

AI聊天客户端,通过MCP连接多种LLM和工具,包含可定制的MCP服务器示例。

Square API MCP 服务器

基于 Model Context Protocol 的服务器,提供对 Square Connect API 的标准化访问,赋能大型语言模型与 Square 商业数据和功能交互。

基于Genkit的MCP服务器实现示例

一个演示如何使用 Genkit 在 Firebase/Cloud Run 构建 AI 应用的示例项目,内含 MCP 服务器实现代码。

MCP Go服务器入门示例

使用 Go 语言和 mcp-go 库构建的 MCP 服务器基础示例,展示工具、资源和提示词的实现。

基石智算 MCP 服务器

提供基石智算云平台计算、存储、训练、推理等服务的MCP服务器后端。

影刀RPA MCP服务器

基于MCP协议,为LLM客户端提供影刀RPA能力,支持Stdio和SSE传输模式。

MCP 网关

一个 Python 应用,聚合多个后端 MCP 服务器的能力,通过统一的 SSE 端点提供给 LLM 客户端。

Spring AI 工具服务器

基于Spring AI构建的MCP服务器,为LLM提供外部工具调用和上下文能力。

AlphaCore MCP 能力编排服务器

一个基于 MCP 协议的能力编排服务器,用于协调大型语言模型和外部工具的交互与执行。

MCP API 网关

提供多用户、安全密钥管理的Model Context Protocol服务器HTTP网关。

MCP服务器示例:白板工具连接器

通过MCP协议提供与在线白板工具(如FigJam)的连接能力,允许LLM调用工具创建和管理白板内容。

GitHub仓库 MCP上下文服务器

提供GitHub仓库内容作为上下文,赋能LLM理解代码和项目结构。

MCP 智能代理示例服务器

基于 Model Context Protocol (MCP) 的示例服务器,为AI代理教程提供链上数据查询和交易等工具能力。

Pixabay图片搜索MCP服务器

一个基于Model Context Protocol (MCP) 的服务器,通过工具调用为LLM提供Pixabay图片搜索功能。

fast-agent MCP 应用框架

基于 Model Context Protocol (MCP) 构建 LLM 应用的高效框架,用于创建和编排 Agent、调用工具和管理上下文。

Kash

基于MCP协议的AI原生命令行工具和应用后端,提供知识任务管理和AI工具调用能力。

Ultimate MCP Server

基于 Model Context Protocol (MCP) 的全面服务器,为AI Agent提供丰富的工具、记忆和模型调用能力,增强认知与操作。

KOI-MCP Integration

连接知识组织基础设施 (KOI) 中的智能体个性与能力到大型语言模型 (LLM) 客户端,以标准化的资源和工具形式呈现。

Hono无状态MCP服务器(Cloudflare适配)

基于Hono框架,实现Model Context Protocol (MCP) 的无状态服务器,优化适配Cloudflare Workers等Serverless环境。

KOI-MCP Integration

整合KOI知识网络与MCP协议,使智能体能发布自身能力为标准化工具和资源,供LLM客户端调用。

Convoworks GPT MCP服务器插件

基于Convoworks框架,将WordPress服务扩展为MCP服务器,通过SSE协议为LLM客户端提供工具和Prompt能力。

Archon智能体构建MCP服务器

此MCP服务器允许LLM客户端调用Archon智能体构建工具,帮助用户创建和管理AI智能体。

MCPMan (MCP管理器)

一个协调大型语言模型 (LLM) 调用外部功能 (工具) 并利用 Model Context Protocol (MCP) 服务器提供上下文的工具。仓库中包含了 MCP 服务器的示例实现。

Snak Agent Template

基于 Snak 框架构建的 AI 代理模板,可配置为 MCP 服务器,连接大型语言模型与 Starknet 区块链。

mcp-tools示例服务器

演示如何使用 Go 和 Python 构建 MCP 服务器,提供资源访问和工具调用能力。

Frappe MCP Server (Python)

基于MCP协议的服务器实现,为LLM应用提供Frappe框架和数据库的连接能力,支持工具调用和数据访问。

Streamable HTTP MCP Server (TypeScript)

基于 Model Context Protocol 和 Streamable HTTP 协议的服务器端实现,使用 TypeScript 开发,提供资源管理、工具注册和 Prompt 模板等核心 MCP 功能。

Ollama/Gemini MCP智能体及示例服务器

基于Ollama/Gemini大模型的MCP客户端应用,集成了工具调用能力,并提供了可扩展功能的示例MCP服务器。

Genkit Google Maps MCP 示例服务器

此项目演示了如何使用 Genkit 和 MCP 协议,通过 Google Maps API 为 LLM 提供地理位置信息查询等工具。

MCP工具服务器示例

一个基于Model Context Protocol (MCP) 的示例服务器,提供天气查询、字典查询和数学计算等实用工具,方便LLM应用扩展功能。

Jiki框架

Jiki是一个灵活的LLM编排框架,通过MCP协议实现工具调用,简化了LLM应用与外部工具和资源的集成。

加密货币价格追踪MCP服务器示例

一个简单的MCP服务器,通过CoinGecko API提供加密货币价格信息,展示了MCP协议工具注册和执行的基本功能。

钉钉Agent MCP服务器

将钉钉客户端作为LLM客户端的MCP服务器,提供用户和消息相关的工具,集成钉钉开放平台能力。

MCP Server (Spring AI based)

基于Spring AI框架构建的MCP服务器,提供资源、工具和Prompt模板管理,并通过SSE实现与LLM客户端的通信。

Remote MCP Server (Cloudflare)

基于Cloudflare Workers构建的远程MCP服务器,提供资源、工具和Prompt模板管理,并通过OAuth进行安全认证。

Remote MCP with SSE示例

使用FastAPI和Server-Sent Events (SSE) 构建的远程MCP服务器示例,允许客户端通过HTTP访问服务器端工具。

Cloudflare远程MCP服务器

基于Cloudflare Workers构建的远程MCP服务器,提供OAuth登录和工具注册能力,可与Claude等客户端集成。

Lambda MCP服务器

基于AWS Lambda的简易MCP服务器,通过Streamable HTTP协议与客户端通信,提供工具调用功能。

MCP Demo客户端及天气服务示例

演示了如何使用 MCP 客户端连接和调用 MCP 服务器,包含天气预报和警报工具。

Mongo MCP Server

一个基于 Model Context Protocol 的 MongoDB 服务器,允许 LLM 通过工具调用操作 MongoDB 数据库。

Weather Service MCP Server

一个基于Python实现的MCP服务器,提供天气信息查询功能,包括实时天气和天气预报,通过资源和工具两种方式为LLM应用提供上下文数据。

MCP Host

MCP Host 是一个 Node.js 应用,用于连接、管理和聚合多个 MCP 服务器,提供统一 HTTP API 访问工具和资源。

GitHub Copilot MCP集成示例

该仓库通过示例项目展示了如何将MCP服务器与GitHub Copilot Agent模式集成,提供上下文信息和工具能力。

VLC媒体控制MCP服务器

一个基于MCP协议的服务器,通过工具调用控制VLC媒体播放器,实现远程视频播放和管理。

Spring AI MCP服务器示例

基于Spring AI框架实现的MCP服务器示例,提供元素周期表查询、文件系统访问和地图路线规划等工具服务。

Think MCP Server

基于MCP协议实现的Think工具服务器,提供结构化思考工具及扩展工具,增强LLM的推理能力。

Better Auth MCP Server

为 Better Auth 应用提供模型上下文协议 (MCP) 服务,管理资源、工具和 Prompt 模板,标准化 LLM 交互。

mini-cursor

mini-cursor 是一个轻量级的开源工具,旨在复现 Cursor 编辑器的 MCP 服务器功能,允许用户在本地或远程使用工具扩展 LLM 应用的能力。

SupaMCP服务器

SupaMCP是一个跨平台的Model Context Protocol (MCP) 服务器实现,用C语言编写,支持资源和工具管理,并可作为网关路由请求。

AI Cookbook - MCP Server Demo

演示如何使用Model Context Protocol (MCP) 构建可扩展的AI应用后端,包含TypeScript和Python MCP服务器示例,支持STDIO和SSE传输协议,并集成LangGraph。

Lithic MCP Server

为LLM应用提供访问Lithic API的MCP服务器,支持资源读取和工具调用。

Agentic MCP Server Examples

演示了基于Model Context Protocol的服务器实现,提供通过Stdio和SSE协议与LLM客户端交互的示例,包括工具注册和执行。

NGCBot MCP Server

基于FastMCP框架构建的MCP服务器,提供微信消息发送和用户ID查询等工具,桥接LLM与NGCBot API。

Gridware 集群调度器 MCP 服务器示例

基于go-clusterscheduler的MCP服务器示例,提供集群作业管理、状态查询和配置信息等功能,方便LLM应用集成集群调度能力。

天气服务器示例

基于MCP协议构建的天气信息服务器,提供天气预报和气象警报查询功能。

Streamable HTTP MCP Server示例 (Lambda)

基于AWS Lambda的Streamable HTTP MCP服务器示例,演示了工具调用和实时响应的实现。

MCP客户端工具投毒攻击示例

本仓库提供了一个MCP客户端示例,用于演示如何通过Model Context Protocol (MCP) 与MCP服务器交互,并探讨工具投毒攻击的可能性。

AgentStudio MCP服务器

AgentStudio MCP服务器为AgentStudio平台上的智能体提供资源访问和工具调用能力,符合模型上下文协议标准。

MCP Lite

MCP Lite 是一个基于 Ruby 开发的轻量级模型上下文协议(MCP)服务器实现,旨在为 LLM 应用提供高效、可扩展的上下文服务框架。

L2C CTFs MCP 服务器

基于 Azure Functions 构建的 MCP 服务器,为 L2C CTFs 实验环境提供上下文服务和工具调用能力。

MCP Server Example (ai-playground)

基于ai-playground仓库的MCP服务器示例,提供加法工具,演示MCP服务器的基本功能。

Infisical MCP 服务器

Infisical MCP Server 通过 Model Context Protocol (MCP) 协议,将 Infisical 密钥管理平台的功能以工具形式提供给 LLM 客户端,实现安全的密钥管理和访问控制。

Minimal MCP Server on IC Canister

基于 Internet Computer 的最小化 MCP 服务器实现,目前仅支持工具 (Tools) 功能和 Streamable HTTP。

MCP Chat Demo with Claude

演示如何使用 Model Context Protocol (MCP) 构建支持 Claude LLM 的聊天应用,通过多个 MCP 服务器提供工具扩展 LLM 能力。

Tiny-OAI-MCP-Agent

一个基于MCP协议的轻量级智能体,允许LLM通过自然语言操作SQLite数据库,演示LLM如何通过MCP协议与外部工具交互。

MCP计算器服务器示例

一个演示 Model Context Protocol (MCP) 服务器功能的简单示例,提供加、减、乘三种计算工具供LLM客户端调用。

AWS Bedrock Web工具 MCP服务器示例

演示如何构建一个基于Playwright的Web自动化MCP服务器,并与AWS Bedrock集成,实现LLM Agent能力。

Spring AI MCP DeepSeek示例服务器

基于Spring AI框架构建的MCP服务器示例,提供图书信息查询工具,支持LLM客户端通过工具调用获取图书数据。

Azure OpenAI MCP示例服务器

演示如何使用MCP协议与Azure OpenAI集成,提供工具注册和调用的基本MCP服务器功能。

MCP DeepSeek演示服务器

基于MCP协议实现的SSE服务器,集成DeepSeek模型,提供产品、库存、文件等工具调用能力。

MCP Node SSE参考服务器

基于Node.js和Server-Sent Events实现的MCP协议参考服务器,提供工具注册和调用能力,支持与LLM客户端进行上下文交互。

Job Searchoor MCP服务器

一个提供职位搜索功能的 MCP 服务器,允许 LLM 客户端通过工具调用获取最新的职位信息。

Serverless MCP Server

基于AWS Lambda的轻量级MCP服务器,通过Serverless Framework快速部署,提供工具注册和执行能力,简化LLM应用上下文管理。

Simple Python MCP服务器

一个使用Python实现的简单但功能完备的MCP服务器,支持工具注册和调用,并提供时间工具示例。

MCP网页内容抓取引擎

一个基于MCP协议的简易服务器,提供网页内容抓取工具,使LLM能够访问和利用网络信息。

MCP Ping-Pong 示例服务器

基于 FastAPI 和 FastMCP 构建的 Ping-Pong 示例服务器,演示了通过 API 和 SSE 进行 MCP 工具调用和 Prompt 获取。

Langchain NestJS MCP示例服务器

基于Langchain和NestJS构建的MCP服务器示例,演示了如何使用MCP协议提供上下文信息和工具能力。

Calculate MCP服务器

一个简单的MCP服务器,提供基础计算器功能,使LLM能够执行加减乘除等运算。

MCP Shell Server

一个基于MCP协议的轻量级服务器,通过工具调用执行shell命令,为LLM提供基础的系统交互能力。

Ask ChatGPT MCP Server

一个简单的MCP服务器,将OpenAI ChatGPT (GPT-4o) 模型封装为工具,供LLM客户端调用以进行文本分析、摘要和推理等任务。

天气API MCP服务器

一个轻量级的MCP服务器,为AI助手(如Claude)提供实时天气数据,支持通过工具获取指定城市当前天气信息,并以HTML格式返回。

航班搜索MCP服务器

基于Model Context Protocol的航班搜索服务,提供航班查询工具,供LLM客户端调用。

Autochat MCP Server示例 (基于FastMCP的示例服务器)

Autochat项目提供的MCP服务器示例,展示如何通过FastMCP框架构建和运行MCP服务器,为Autochat智能体提供资源和工具。

GroundedLLM - 可落地AI Agent服务

GroundedLLM是一个开箱即用的AI Agent服务器,集成了搜索和信息提取工具,通过MCP协议为LLM客户端提供知识增强和工具调用能力,降低大语言模型幻觉。

Simple-MCP (Tavily 搜索工具)

一个基于Tavily API实现的极简MCP服务器,提供网页搜索工具,方便LLM客户端获取实时信息。

Demo MCP Server

一个演示性质的MCP服务器,提供通过URL获取本月事件摘要的工具,展示MCP协议工具调用的基本流程。

Emacs MCP Server

Emacs MCP Server是一个允许LLM在Emacs环境中执行代码的MCP服务器,扩展了LLM与Emacs编辑器的交互能力。

MCP Telegram Server

MCP Telegram Server是一个基于Model Context Protocol的服务器,旨在为LLM应用提供访问Telegram功能的桥梁。

Autono MCP Agent Framework

Autono框架通过MCP协议集成外部工具,构建可扩展的自主 агентов,实现复杂任务处理。

lumo

Rust实现的自主Agent框架,支持MCP协议,提供资源、工具和Prompt模板管理,可作为LLM上下文服务器。

Entra ID 认证最小化 MCP 服务器示例

演示如何使用 Entra ID 认证和 HTTP+SSE 传输协议实现 MCP 服务器,提供调用 Microsoft Graph 获取用户信息的工具。

Axone MCP 服务器

Axone MCP 服务器是一个轻量级的 MCP 服务器实现,旨在为 AI 工具提供安全可扩展的数据访问和功能调用能力。

MatlabMCP服务器

MatlabMCP Server是一个MCP服务器的简单实现,允许LLM客户端通过工具调用在后台Matlab会话中执行Matlab代码。

LinkedIn内容创作助手

基于MCP和LangChain的开源AI Agent,用于自动化LinkedIn内容生成和发布,通过本地MCP服务器提供内容搜索工具。

Grok-2 图像生成 MCP 服务器

基于 MCP 协议的 Grok-2 图像生成服务,允许聊天助手通过工具调用生成图像。

Bedrock数学MCP服务器示例

演示如何使用Chainlit和MCP服务器集成Amazon Bedrock,提供基础数学工具供LLM调用。

B站API MCP服务器

一个基于MCP协议的服务器,旨在为LLM应用提供B站API的工具和数据资源访问能力。

OpenAI MCP 示例服务器

一个展示如何使用 MCP 协议与 OpenAI API 交互的简单示例 MCP 服务器,支持工具注册和调用。

Cloudflare远程MCP服务器示例

基于Cloudflare Workers构建的远程MCP服务器示例,演示了如何使用OAuth进行身份验证并提供工具功能。

MCP服务器模板

这是一个用于快速搭建MCP服务器的模板项目,预置了工具注册和调用示例,方便开发者快速上手构建自己的LLM应用后端。

Spring AI 人员数据 MCP 服务器示例

基于Spring AI和MCP协议,提供人员数据CRUD操作和查询工具的示例MCP服务器,用于演示MCP服务器的基本功能。

Weaverse文档搜索MCP服务器

Weaverse MCP服务器提供文档搜索工具,帮助用户快速检索Weaverse官方文档,为LLM应用提供知识库访问能力。

FIB支付MCP服务器

为LLM应用提供First Iraqi Bank支付API的MCP服务器,支持创建、查询、取消和退款等支付工具。

AWS MCP协议演示服务器 (Python Stdio)

基于Python和Stdio实现的MCP服务器演示,提供计算器和天气查询工具,展示MCP协议在本地环境中的应用。

Spring AI MCP Server示例 (天气工具)

基于 Spring AI 构建的 MCP 服务器示例,提供天气查询工具,演示如何向 LLM 客户端提供外部数据访问能力。

文件系统 MCP 服务器示例

一个基于 Java 实现的 MCP 服务器,提供文件系统访问能力,包括文件读取和目录列表功能。

EdisonTalk MCP Server

基于Model Context Protocol的示例MCP服务器,提供工具注册和调用能力,支持Stdio和SSE传输协议,用于LLM智能体应用。

Computer Use MCP Server

一个MCP服务器,允许Claude等LLM模型通过工具调用控制您的电脑,实现鼠标键盘操作和屏幕截图等功能。

Spring AI 调度 MCP 服务器

基于Spring AI实现的狗狗领养预约调度MCP服务器,提供日程安排工具供LLM客户端调用。

天气MCP服务器演示 (Java SSE)

基于Java和SSE实现的MCP服务器演示,提供天气查询工具,展示MCP协议在LLM应用中上下文信息和功能提供的能力。

Scrapeless 搜索 MCP 服务器

基于 MCP 协议的服务器,为 LLM 提供通过 Scrapeless API 进行 Google 搜索的功能,扩展 LLM 的信息检索能力。

Bitte AI MCP 代理服务器

一个基于MCP协议的代理服务器,为LLM应用提供访问Bitte AI平台和Goat SDK的工具能力。

Baidu 搜索 MCP 服务器

提供 Baidu 网页搜索和内容抓取功能的 MCP 服务器,为 LLM 应用提供 Baidu 搜索能力。

Spring AI MCP摘要服务器示例

基于Spring AI框架实现的MCP服务器,提供通过工具调用的文本摘要功能。

MCP C# Hello World服务器示例

基于C#和Model Context Protocol SDK构建的简单MCP服务器示例,演示了如何注册和调用工具。

D语言 MCP 服务器库 (mcp-d)

这是一个使用D语言编写的MCP服务器库,专注于通过stdio传输协议为AI语言模型提供上下文信息、工具和Prompt服务。

Worker17 MCP服务器

Worker17 MCP服务器是一个用于监控和控制虚拟Worker17的MCP服务器实现,通过SSE协议与客户端通信,提供Worker状态查询、终止Worker和获取相机图像等功能。

Lite MCP for Javascript

轻量级 Javascript MCP 服务器及客户端 SDK,专注于 SSE 传输,简化 AI Agent 上下文服务搭建。

MCP实验服务器示例

基于.NET开发的MCP服务器示例,演示了如何通过Stdio和SSE协议提供时间和地点相关的工具给LLM客户端。

LangChain4j MCP天气服务演示

基于LangChain4j和Quarkus MCP构建的演示项目,提供天气查询工具的MCP服务器实现。

Spring AI MCP Demo Server

基于Spring AI构建的MCP协议演示服务器,提供资源、工具和Prompt模板管理功能。

Gaia-X企业级AI应用平台

Gaia-X是新一代企业AI应用平台,内置MCP协议支持,提供资源、工具和Prompt模板管理,为企业级LLM应用提供安全可扩展的上下文服务框架。

Monad Testnet Balance Checker MCP Server

一个 MCP 服务器示例,提供查询 Monad 测试网 MON 代币余额的功能,允许 LLM 通过工具调用获取区块链信息。

Playwright Tooling MCP Server

通过模型上下文协议 (MCP) 为 LLM 代理提供浏览器自动化工具 (Playwright),实现网页交互和信息提取。

MCP Python Demo Server

基于MCP协议的Python服务器示例,演示如何使用FastMCP SDK构建提供资源、工具和Prompt的LLM上下文服务。

Folo MCP Server

Folo MCP Server 是一个基于 Model Context Protocol 的服务器,为 LLM 应用提供访问 Folo RSS 阅读器数据的能力,支持获取订阅列表、条目列表、未读计数等功能。

Qwen-Agent MCP 服务器

Qwen-Agent 框架的 MCP 服务器组件,提供资源管理、工具注册和 Prompt 模板渲染等 MCP 协议核心功能,为 LLM 应用提供上下文服务。

LlamaCloud MCP 服务器示例

演示如何使用 LlamaCloud 搭建 MCP 服务器,通过工具集成 LlamaIndex 云端索引,为 LLM 客户端提供 RAG 能力。

MCP Server示例项目

基于Model Context Protocol的服务端实现,提供天气查询和GitHub信息查询工具,增强LLM应用的功能。

Laravel MCP Server

基于Laravel框架实现的Model Context Protocol (MCP) 服务器,提供资源管理和工具调用功能,用于连接LLM客户端。

Dynamics 365 MCP Server

一个基于 MCP 协议的服务器,提供访问 Microsoft Dynamics 365 数据的工具,支持用户、账户和商机信息的查询与管理。

AIStor MCP Server

AIStor MCP Server是为LLM应用设计的后端服务,提供AIStor对象存储的资源访问和工具调用能力,支持LLM安全可扩展地访问对象存储服务。

MCP实时Agent基础设施

基于MCP协议构建,为AI客户端提供实时工具执行、结构化知识检索和动态交互能力。

Deco MCP Server

将Deco网站转换为MCP服务器,为LLM客户端提供上下文信息和工具能力。

ADO工作项追踪器MCP服务器

一个基于 Model Context Protocol 的服务器,用于通过工具调用 Azure DevOps REST API 管理工作项。

Springboot MCP服务器快速启动模板

基于Springboot框架搭建的MCP服务器模板项目,支持STDIO和SSE模式,方便开发者快速构建和测试MCP后端服务。

LaTeX to MathML MCP 服务器

该项目是一个基于 Model Context Protocol (MCP) 的服务器,用于将 LaTeX 数学表达式转换为 MathML 格式,支持工具调用和资源访问两种方式。

Spring AI MCP Server示例

基于Spring AI框架构建的MCP服务器示例,用于演示如何为LLM应用提供上下文服务,包括资源管理、工具调用和Prompt模板渲染等核心功能。

Spring AI课程信息MCP服务器

基于Spring AI MCP Server框架实现的课程信息服务,通过标准化的MCP协议向LLM客户端提供课程数据查询工具。

LLM Bridge MCP

LLM Bridge MCP 是一个基于 Model Context Protocol (MCP) 的服务器,旨在为 LLM 客户端提供统一的接口,以访问和使用多种 LLM 提供商的模型。

Deepin MCP Python 服务器示例

基于Python实现的MCP协议服务器示例,包含天气、文件和Bash命令工具,可与MCP客户端连接并提供上下文服务。

TODO应用MCP服务器

基于Cloudflare Workers和Stytch的TODO应用MCP服务器,提供资源管理和工具调用能力,扩展传统应用以支持AI Agent。

Maton Agent Toolkit MCP Server

基于Maton API的MCP服务器实现,提供HubSpot和Salesforce的集成工具,允许LLM客户端通过MCP协议调用和管理CRM数据。

MCP文件系统服务器 (Go)

基于MCP协议的文件系统服务器,允许LLM客户端安全访问和操作服务器端文件系统资源。

MCP Assistant

MCP Assistant 是一个集成多种计算提供器(MCP)的现代聊天应用,支持调用计算器和网页搜索等外部工具,增强了AI对话功能。

Replicate图像生成MCP服务器

一个基于MCP协议的服务器,通过Replicate模型提供图像生成功能,使LLM客户端能够调用工具生成图像。

MCP-Go 服务器

基于 Go 语言实现的 Model Context Protocol (MCP) 服务器,提供资源管理、工具注册和 Prompt 模板等核心功能,用于构建 LLM 应用的上下文服务后端。

iFlytek Workflow MCP Server

基于 MCP 协议的 iFlytek 工作流服务器,为 LLM 应用提供调用讯飞星火工作流的能力。

Dart MCP服务器库

mcp_dart 是一个 Dart 库,用于构建 MCP 服务器,旨在为 LLM 应用提供标准化的上下文数据和工具能力。

KubeChain

KubeChain是一个Kubernetes原生的AI Agent编排器,支持异步工具调用和通过MCP服务器扩展Agent功能。

MCP工具助手示例

本仓库提供了一个基于MCP协议的工具助手示例,包含MCP服务器和客户端实现,展示如何通过MCP连接LLM与外部工具。

简易笔记MCP服务器

这是一个基于Model Context Protocol协议的简单笔记服务器,允许通过工具创建和管理文本笔记。

Semantic Kernel MCP C# 示例服务器

基于 Semantic Kernel 和 MCP C# SDK 构建的示例 MCP 服务器,演示如何通过 MCP 协议提供工具能力。

B站视频搜索服务

基于 MCP 协议的 B站视频搜索服务,允许用户通过工具调用搜索 B站 视频内容。

星尘工作流MCP服务器

一个基于讯飞星火认知大模型的工作流MCP服务器,通过MCP协议为LLM客户端提供工作流工具和模型能力。

y-cli MCP Daemon

y-cli MCP Daemon 是一个用于管理和连接多个 MCP 服务器的后台服务,允许 y-cli 客户端通过统一接口安全便捷地调用 MCP 工具和访问资源。

MCP服务器快速上手示例

本仓库提供Model Context Protocol (MCP) 的简介和使用指南,帮助开发者快速搭建和运行MCP服务器,扩展AI模型能力。

GPT CLI 客户端 (MCP增强)

一个命令行工具,通过集成 Model Context Protocol (MCP) 服务器,增强 GPT 的功能,实现工具调用和上下文管理。

ACI.dev MCP 服务器

基于ACI.dev平台的MCP服务器,提供应用工具的便捷访问和统一管理,支持工具发现和动态执行,简化LLM应用与外部功能的集成。

Pica MCP Server

Pica MCP Server作为LLM的上下文服务,集成Pica平台连接和能力,支持通过工具和资源访问各种API。

Llama Stack Server

Llama Stack Server是一个应用后端,旨在通过标准化的方式为LLM客户端提供上下文信息和功能,支持资源管理、工具调用和Prompt模板定制。

Godot MCP Server SDK

用于在Godot引擎中快速开发MCP应用后端的SDK,提供资源管理、工具注册和Prompt模板等核心MCP服务器功能。

Memobase MCP Server

Memobase MCP Server 是一个基于 Model Context Protocol 的后端实现,专注于用户和 Blob 数据管理,通过工具提供数据访问能力,为 LLM 应用提供上下文服务。

AI Playground MCP Server

aiPlayground MCPServer 是一个使用 Model Context Protocol (MCP) 框架构建的简单 MCP 服务器示例,演示了如何通过标准化的协议向 LLM 客户端提供上下文服务,包括资源管理和工具注册。

危险的MCP示例服务器

一个演示MCP工具安全风险的简单示例服务器,展示了恶意工具如何访问敏感信息。

Haze Echo MCP Server

一个简单的MCP服务器示例,提供回声(Echo)工具,用于演示MCP服务器的基本功能。

Dify MCP Server

Dify MCP Server是基于Model Context Protocol的应用后端,为Dify AI应用提供资源、工具和Prompt模板的托管、管理和执行能力,支持LLM客户端通过JSON-RPC协议进行交互。

MCP Server Flask 封装

通过 Flask 封装 MCP 客户端,将本地 MCP Server 服务暴露为 HTTP API,方便 Coze/Dify 等平台集成。

WayStation MCP Server

WayStation MCP服务器作为LLM与生产力工具之间的桥梁,提供工具管理和执行能力,实现LLM与外部应用的集成。

Ollama MCP示例服务器

基于MCP协议实现的示例服务器,集成Ollama模型,提供数学计算工具和动态问候资源。

Adfin MCP 服务器

为 Claude Desktop 提供 Adfin 服务和本地文件系统访问能力的 MCP 服务器实现。

Spring AI信用评分MCP服务器

基于Spring AI工具调用的MCP服务器示例,用于信用评分分析,集成内外部数据源,并通过Slack发布结果。

MCP Agent示例服务器

基于FastMCP框架构建的MCP服务器示例,提供文档检索工具,演示MCP服务器的基本功能和使用方法。

天气工具 MCP 服务器

一个简单的 MCP 服务器实践项目,提供天气预报和警报查询工具,通过 MCP 协议与客户端交互。

Perplexity MCP 服务器

基于MCP协议,将Perplexity API模型能力封装为工具,提供模型问答服务的MCP服务器。

MCP Fun Examples

演示了如何使用 FastMCP 框架构建和运行 MCP 服务器,包含 BMI 计算工具和 MySQL 数据库资源访问。

Easy MCP Server

一个轻量级的Python MCP服务器实现,通过SSE为LLM客户端提供上下文和工具能力。

时间显示MCP服务器

一个简单的MCP服务器,提供获取当前时间的功能,演示了MCP服务器的基本工具注册和Stdio传输协议的使用。

MCP测试服务器

一个用于Model Context Protocol (MCP) 协议的简单测试服务器,提供资源、工具和Prompt模板管理功能。

天气MCP服务器

一个基于Model Context Protocol (MCP) 的服务器,提供天气预报和警报等实用工具,可通过SSE或Stdio协议连接。

Spotify MCP Server

一个连接 Spotify API 并通过 Claude AI 提供音乐发现和互动功能的 MCP 服务器。

FastMCP轻量级服务器

基于FastMCP框架构建的轻量级MCP服务器,专注于提供工具注册和生命周期管理,简化LLM应用后端开发。

Port MCP Server

Port MCP Server通过MCP协议使LLM客户端能够调用Port.io的AI Agent工具,实现与Port.io平台的集成。

MCP Demo Server

演示Model Context Protocol (MCP) 服务器的核心功能,包括工具、资源和Prompt模板的定义与使用。

AiderDesk MCP Server

AiderDesk MCP Server 为 AiderDesk 应用提供 MCP 协议支持,允许 LLM 客户端通过标准化的方式与其交互,管理上下文文件和执行代码操作。

Stack AI 工作流 MCP 服务器

Stack AI 工作流 MCP 服务器是一个桥梁,让兼容 MCP 协议的客户端能够调用和执行 Stack AI 平台上的工作流,并获取结构化结果。

Encore天气MCP服务器示例

使用Encore框架构建的MCP服务器示例,提供天气查询工具,演示了MCP协议在实际应用中的使用。

Demo MCP Server

基于 Model Context Protocol 的演示服务器,提供知识存储和检索功能,并通过工具和资源暴露给 MCP 客户端。

FastMCP示例服务器

基于FastMCP框架实现的简单MCP服务器示例,提供一个hello_world工具,演示基本的MCP客户端-服务器交互。

Dify MCP 服务器插件

将 Dify 应用转换为 MCP 服务器的插件,允许 LLM 客户端通过 MCP 协议调用 Dify 应用的功能。

MCP天气服务示例

一个基于MCP协议的天气信息服务,通过工具提供天气预报和警报数据,供LLM客户端调用。

MCP Demo Weather Server

一个演示性质的MCP服务器,提供天气查询工具和Prompt模板,展示MCP服务器的基本功能。

FastAPI MCP Server

基于FastAPI框架实现的MCP服务器,旨在为AI助手提供统一的工具和数据源访问接口。

QQ机器人MCP服务

一个基于Model Context Protocol (MCP) 实现的服务器,旨在为QQ机器人提供上下文信息和工具调用能力。

语音助手MCP音乐播放器服务端

一个基于MCP协议的音乐播放器服务器,通过工具提供音乐播放能力,可与LLM客户端协同工作。

CustomGPT MCP集成示例服务器

本仓库提供了一个使用FastMCP库构建的MCP服务器示例,用于将CustomGPT的功能集成到支持MCP协议的LLM客户端,例如Claude。

AgentCraft MCP Server

AgentCraft MCP Server为AI Agent提供安全可扩展的上下文服务,支持数据交换和工具调用,是企业级AI应用的基础设施。

OWL多智能体协作框架

OWL是一个先进的多智能体协作框架,集成了模型上下文协议(MCP),旨在简化AI模型与工具及数据源的标准化交互,实现高效的任务自动化。

WordPress REST API MCP Server

一个基于MCP协议的WordPress REST API服务器,提供WordPress网站内容和功能的访问能力。

需求收集MCP服务器

用于项目需求收集和管理的MCP服务器,提供需求、干系人和项目管理工具,支持工具调用和数据持久化。

Spring AI MCP 服务示例

演示如何使用 Spring AI 构建 MCP 服务器,提供地理编码和时区查询工具,供 LLM 客户端调用。

JavaScript MCP天气服务示例

这是一个使用 JavaScript 开发的 MCP 服务器示例,演示了天气工具和 Prompt 功能。

gomcptest:自定义Host的MCP概念验证服务器

gomcptest 是一个 Model Context Protocol (MCP) 服务器的概念验证项目,演示了如何使用自定义构建的主机来实现 MCP 协议,并集成了 OpenAI 兼容 API 和 Google Gemini,用于测试 Agentic 系统。

AI待办事项日历助手MCP服务器

基于OpenAI Assistant API和Google日历API构建的AI待办事项和日历助手,通过MCP协议提供标准化工具调用和上下文管理能力。

时间显示MCP服务器示例

一个简单的MCP服务器示例,通过工具提供日本时间的查询功能,演示了MCP服务器的基本结构和工具注册。

Symbol区块链MCP工具服务器

基于MCP协议实现的Symbol区块链数据查询服务器,为LLM应用提供账户和马赛克信息查询工具。

远程桌面控制MCP服务器

提供通过MCP协议远程控制和操作计算机桌面环境的服务端实现,支持屏幕截图、鼠标键盘操作和bash命令执行等工具。

mcp-ectors

mcp-ectors 是一个高性能的 MCP SSE 服务器,使用 Rust 和 Actors 构建,旨在为 LLM 提供工具、资源和 Prompt 模板的集成和管理能力。

Orq MCP Server

Orq MCP Server提供开发者友好的Typescript SDK 和 MCP 服务器实现,用于管理 LLM 应用的资源、工具和 Prompt,符合 Model Context Protocol 标准。

MCP Clojure SDK

用于构建 MCP 服务器的 Clojure SDK,提供资源、工具和 Prompt 模板管理功能。

ChatLLM

AI聊天应用后端服务,集成多种LLM,支持会话管理、工具调用和MCP服务器集成。

简易天气查询MCP服务器

一个简单的MCP服务器示例,提供查询城市天气信息的功能,演示了如何使用MCP协议注册和调用工具。

LocalMCP服务器

LocalMCP是一个本地自托管的MCP服务器,支持多种服务集成和本地大模型,并通过Web界面进行管理。

serverless rag mcp server

基于Model Context Protocol (MCP) 构建的服务器,集成了Sionic AI Storm平台的RAG能力,为LLM客户端提供工具和资源访问。

mcp server salesforce

mcp-server-salesforce 是一个 MCP 服务器实现,提供笔记的存储、总结和添加功能,可作为与 Salesforce 集成的基础。

allnads

AllNads仓库实现了基于Model Context Protocol的MCP服务器,为AI智能体提供访问区块链数据和执行智能合约交易的工具,是AllNads平台后端架构的重要组成部分。

gomcptest

该项目为MCP协议的概念验证,包含模拟OpenAI API的主机和多个MCP工具(如Bash、文件编辑等),演示了如何构建与MCP服务器交互的LLM应用后端。

kno2gether gemini multimodal playground

一个基于WebSocket的MCP代理服务器,用于连接和管理多个MCP后端服务器,并通过Web界面为LLM应用提供工具调用能力。

mcp

mcp.rs 是一个用 Rust 语言实现的高性能 Model Context Protocol (MCP) 服务器,旨在为 AI 应用提供标准化的上下文和资源访问能力。

AI from scratch

一个简单的MCP服务器示例,提供加、减、乘、除基础计算器功能,作为工具供LLM客户端调用。

mcp

一个基于 Model Context Protocol 的 VS Code 扩展,实现了简单的 MCP 服务器,提供 Echo 工具和 SSE 通信功能,用于测试和演示 MCP 服务器的基本功能。

mcp hello world

一个简单的MCP服务器示例,提供了一个问候工具 (hello-world),用于演示MCP服务器的基本功能。

databutton mcp

Databutton MCP服务器用于应用初步规划和创建。它提供资源访问、工具调用和Prompt模板,帮助用户在Databutton平台上构思和提交应用需求。

mcp js server

mcp-js-server 是一个基于 JavaScript 的 MCP 服务器 SDK,用于构建能够向 LLM 应用提供资源、工具和 Prompt 模板的后端服务。

demo mcp on amazon bedrock

基于Amazon Bedrock的MCP服务器演示项目,提供ChatBot API并集成多种MCP工具,扩展大模型应用场景。

mcp core

mcp-core 是一个 Rust 库,实现了 Model Context Protocol (MCP) 服务器核心功能,支持通过 Stdio 和 SSE 传输协议提供工具注册、调用等服务,为 LLM 应用构建可扩展的上下文服务后端。

mcp client agent

提供一个简单的MCP服务器示例,用于演示MCP客户端代理的功能。

mcp proxy pydantic agent

该仓库提供了一个基于MCP协议的天气信息服务器示例,通过工具提供天气查询功能,演示了如何将外部数据源接入LLM应用。

mcp go

Go语言MCP服务器SDK,提供资源、工具和Prompt模板管理功能。

LeanTool

LeanTool MCP服务器是一个基于Model Context Protocol的应用后端,为LLM客户端提供Lean代码检查工具,支持通过MCP协议进行交互,辅助LLM进行Lean定理证明和代码生成。

gomcp

gomcp 是一个使用 Go 语言编写的 Model Context Protocol (MCP) 服务器的非官方实现,旨在为 LLM 应用提供工具和 Prompt 服务。

mcp client server host demo

一个基于 Model Context Protocol (MCP) 的宝可梦数据服务器演示项目,提供宝可梦信息查询和攻击工具,可通过 HTTP 接口与 LLM 集成。

hermes mcp

Hermes MCP 是一个用 Elixir 开发的 MCP 服务器和客户端库,提供了高性能的 MCP 协议服务端实现,支持资源、工具和 Prompt 管理。

mcp swift sdk

mcp-swift-sdk 是一个 Swift SDK,用于构建 MCP 客户端和服务器,帮助开发者在 Swift 应用中集成 Model Context Protocol 功能。

minima

Minima MCP Server为Anthropic Claude等LLM客户端提供本地文件RAG能力,支持工具调用和Prompt定制,实现安全可扩展的上下文服务。

mcp workers ai

mcp-workers-ai 是一个为 Cloudflare Workers 环境设计的 MCP 服务器 SDK,专注于为 LLM 提供工具调用能力。

mcp server yahoo finance

该MCP服务器提供简单的笔记存储和管理功能,允许LLM客户端创建、访问和总结笔记内容,包含资源管理、Prompt生成和工具调用等MCP核心能力。

mcp server perplexity

Perplexity MCP Server 实现了 ask_perplexity 工具,允许 LLM 客户端通过 Perplexity API 获取带引用的信息,用于研究、事实核查等场景。

mcp server llamacloud

连接 LlamaCloud 知识库的 MCP 服务器,通过工具提供知识库信息检索功能,为 LLM 应用提供上下文数据。

mcp server openai

通过MCP协议连接OpenAI,为LLM客户端提供访问OpenAI模型能力。

mcp server chatsum

该MCP服务器用于查询和总结聊天记录,通过提供的工具,用户可以检索特定聊天内容,并结合LLM进行对话总结。

mcp google calendar

一个MCP服务器,允许AI助手通过工具调用创建和管理Google日历事件。

mcp api expert

该项目是一个MCP服务器,允许LLM客户端通过工具调用发送HTTP请求,连接和利用外部REST API。

weather mcp server

一个简单的天气MCP服务器示例,提供查询美国国家气象局(NWS)天气警报和预报的工具。

convex mcp server

基于Convex云平台的MCP服务器示例,提供简单的笔记资源管理和创建笔记工具。

unichat mcp server

基于MCP协议的Unichat服务器,通过工具和预定义的Prompt模板,为Claude等客户端提供访问多种LLM模型(如OpenAI, MistralAI)的能力。

python mcp server

Linkup for Claude MCP服务器为 Claude 等 LLM 提供联网搜索能力,通过 Linkup 平台访问实时信息和优质内容。

cloneserver

该仓库提供了一系列MCP协议服务器的示例实现,演示了资源管理、工具调用和Prompt模板等核心功能,涵盖文件系统、Google Drive、PostgreSQL和Git等多种数据源。

mcp wait

该仓库提供了基于 Model Context Protocol (MCP) 的等待服务器的 TypeScript 和 Python 实现,主要功能是提供一个名为 `wait_seconds` 的工具,允许客户端请求服务器等待指定的秒数后返回响应,用于演示或测试 MCP 客户端与服务器的交互延迟。

mcp playground

该仓库提供了一个基于Model Context Protocol (MCP) 的天气服务器示例,以及一个使用OpenAI模型作为MCP客户端主机的示例,演示了如何通过MCP协议调用工具获取天气预报。

MCPTest

MCPTest仓库提供了一系列基于Model Context Protocol (MCP) 的服务器实现,包括文件系统操作、MySQL数据库查询、DuckDuckGo在线搜索和网页内容提取等功能,旨在演示如何在LLM应用中集成外部数据源和工具。

notepad server

notepad-server 是一个简单的 MCP 服务器,提供创建、删除、更新和查看Notepad的功能,演示了MCP协议工具的使用。

mcp chat

mcp-chat仓库提供了一个简单的MCP服务器实现,允许LLM客户端通过工具调用读取服务器本地文件系统中的文件。

python pip mcp

提供了一个基于Python实现的最小化MCP服务器示例,包含日期时间工具,用于演示MCP协议服务器端的基本功能。

dice server

dice-server 是一个基于 MCP 协议的简单笔记服务器,允许用户通过客户端创建、读取、列出和总结文本笔记。

mcp gateway

MCP Gateway 是一个桥接本地 MCP STDIO 服务器到 HTTP 客户端的网关,通过 REST API 和 SSE 实现对 MCP 功能的远程访问和管理。

redmine mcp server

Redmine MCP Server插件为LLM应用提供项目管理系统Redmine的上下文信息和工具能力,通过SSE协议通信。

random num mcp

一个简单的MCP服务器,通过工具调用为LLM应用提供生成随机数的功能。

mcp quickstart

该项目是一个快速启动的MCP服务器示例,提供天气查询工具,演示了如何使用Model Context Protocol (MCP) 框架构建可与LLM客户端集成的上下文服务。

claudemcp

claudemcp仓库提供了一个基于MCP协议的天气服务器示例,允许LLM客户端通过工具调用获取实时的天气警报和天气预报信息。

mcp init

一个简单的MCP服务器,通过OpenWeatherMap API提供当前天气信息和天气预报工具。

datastax mcp monsters

基于MCP协议的服务器,提供D&D怪兽数据查询功能,支持按名称检索和查找相似怪兽。

notes

一个基于 Model Context Protocol 的笔记服务器,提供笔记的存储、检索、总结和添加功能,可通过 MCP 协议与 LLM 客户端交互。

weather

weather MCP server是一个提供天气信息查询功能的后端服务,通过资源和工具向LLM客户端提供实时天气和天气预报数据。

mcp ag2 example

该项目是一个本地文件系统MCP服务器示例,允许AI代理通过资源和工具访问和操作本地文件。

mcp server

该仓库实现了一个简单的MCP服务器,提供宝可梦数据作为资源,并提供一个工具来获取宝可梦的统计信息,用于演示MCP服务器的功能。

mcp workers ai

mcp-workers-ai 是一个用于 Cloudflare Workers 的 MCP 服务器 SDK,旨在简化工具的加载和调用,方便 LLM 客户端通过 MCP 协议与之交互,实现工具扩展。

AI Claude MCP

AI_Claude_MCP 是一个基于 Model Context Protocol (MCP) 构建的服务器,旨在通过 Claude 与 Amazon Fresh 交互,实现创建购物清单并生成 Amazon Fresh 链接的功能,方便用户进行在线生鲜购物。

automcp

AutoMCP是一个轻量级、可配置的MCP服务器,支持通过YAML/JSON配置服务和操作,并提供基于标准协议的模型上下文服务。

fetch

mcp_fetch仓库实现了一个简单的MCP服务器,通过集成的网页分析工具,允许LLM客户端(如Claude Desktop)分析指定URL的网页内容,提取标题、链接、段落和图片数量等信息。

smallcloud mcp server

SmallCloud MCP Server是一个演示项目,展示了如何为Claude Desktop构建一个基于Model Context Protocol (MCP) 的服务器,提供了一个简单的“hello world”工具作为示例。

mcp perplexity

基于MCP协议,集成Perplexity API,为LLM提供AI增强的互联网搜索工具和带来源引用的答案。

rsus

rsus 是一个 MCP 服务器,通过集成 Brave Search API,为 LLM 应用提供网页搜索和本地搜索能力。

Function Hub

Function Hub MCP Server 是一个基于 Model Context Protocol 的服务器实现,它将 Function Hub API 提供的功能以工具的形式暴露给 LLM 客户端,允许 LLM 通过 MCP 协议调用 Function Hub 中的各种工具。

UniProt

UniProt MCP Server为AI助手提供蛋白质信息查询功能,通过工具调用获取蛋白质的功能描述、序列等信息。

Mistral AI

该项目是一个基于 Model Context Protocol (MCP) 的服务器示例,它提供工具以便 LLM 客户端调用 Mistral AI 的聊天模型,支持文本和图像输入。

Ntropy

Ntropy MCP服务器是一个应用后端,通过提供工具调用Ntropy API,实现银行交易数据的增强和账户持有者创建等功能,为LLM应用提供金融数据处理能力。

File Search Service

该项目实现了一个基于MCP协议的文件搜索服务器,允许LLM客户端通过工具调用在服务器文件系统中搜索文件。

Eagle.cool

Eagle.cool 仓库实现了一个简单的 MCP 服务器,用于与 Eagle 应用程序交互,目前提供检查 Eagle 应用连接状态的工具,可与 Claude Desktop 等 MCP 客户端配合使用。

Livecode.ch

Livecode MCP Server是一个基于MCP协议的io.livecode.ch代码运行工具服务器,允许LLM客户端通过工具调用在io.livecode.ch上运行代码。

DataBridge

DataBridge MCP服务器是一个示例,演示了如何使用FastMCP框架构建一个能够管理数据桥接和执行信息检索工具的MCP服务器。

Python Docs

该项目是一个MCP服务器,通过Brave搜索API为LLM客户端提供Python文档检索工具。

Location

Location MCP Server是一个简单的MCP服务器,提供获取用户位置的工具和Prompt,支持静态配置和网络IP定位两种方式。

BART (San Francisco Transit)

提供天气和旧金山湾区捷运(BART)实时信息的MCP服务器,支持查询天气警报、天气预报和BART列车到站信息。

Audio Playback

Audio Playback MCP Server是一个简单的MCP服务器,允许LLM客户端通过工具调用控制服务器端的音频播放功能,包括播放指定路径的MP3或WAV音频文件以及停止当前播放。

Python Run

该项目是一个Python实现的MCP服务器,提供通过标准API接口安全执行Python代码的功能。

ScreenshotOne

ScreenshotOne MCP Server是一个基于Model Context Protocol的服务器,提供网页截图工具,允许LLM客户端调用以获取指定URL的网页截图。

Modal (Serverless Python)

Modal MCP Server 是一个允许LLM客户端通过MCP协议在Modal云平台部署和调用Python应用的后端服务。

Nvidia Brev

Brev MCP 服务器是一个基于 Model Context Protocol 的后端实现,用于连接 Brev 云平台,提供云资源信息查询和工作空间管理等工具能力,供 LLM 客户端调用。

File Editor

该项目是一个基于 Model Context Protocol (MCP) 的文件编辑器服务器,允许LLM客户端通过工具调用进行文件查看、创建、替换、插入和撤销编辑等操作。

Microsoft SQL Server (MSSQL)

mssql-mcp-server是一个MCP服务器,允许LLM安全地与Microsoft SQL Server数据库交互,实现数据查询和工具调用。

OpenRPC

一个基于 OpenRPC 协议的 MCP 服务器,通过工具提供 JSON-RPC 服务调用和发现能力,允许 LLM 客户端与 JSON-RPC 服务交互。

WeChat Summarizer

WeChat Summarizer MCP服务器是一个用于查询和总结微信聊天记录的应用后端,通过MCP协议向LLM客户端提供访问用户微信聊天数据的能力,并支持根据查询条件检索和返回聊天信息。

Holaspirit

Holaspirit MCP Server为AI助手提供标准化的MCP接口,使其能够通过工具访问和操作Holaspirit组织的数据,实现与Holaspirit API的集成。

REST APIs

MCP API Connect 是一个 MCP 服务器,允许 LLM 客户端通过预定义的工具调用任何 REST API。

Exa Search

这是一个基于 Model Context Protocol (MCP) 的服务器实现,提供通过 Exa.ai 进行网页搜索的功能,并通过标准化的 MCP 协议与客户端通信。

DigitalFate

DigitalFate是一个企业级AI Agent框架,提供LLM调用、工具集成和任务编排能力,并兼容MCP协议,用于构建可扩展的LLM应用后端服务。

Perplexity

perplexity-mcp是一个MCP服务器,通过Perplexity AI API为LLM客户端提供网页搜索功能。

Ollama

MCP Ollama是一个MCP服务器,它将Ollama大语言模型的功能通过Model Context Protocol (MCP) 协议暴露出来,允许MCP客户端(如Claude Desktop)调用Ollama的模型,进行模型列表查询、模型信息查看和模型问答等操作。

MCP2Lambda

MCP2Lambda 是一个 MCP 服务器实现,它充当 MCP 客户端与 AWS Lambda 函数之间的桥梁,使 LLM 能够以工具的形式调用 AWS Lambda 函数,扩展 LLM 的能力以访问后端服务和资源。

Dify Server

集成 Dify AI API 的 MCP 服务器,提供 Ant Design 组件代码生成工具,支持文本和图片输入,通过标准输入输出与客户端通信。

Shopify MCP Server

Shopify MCP Server为LLM客户端提供访问Shopify店铺数据的工具,如商品和客户列表。

Airflow MCP Server

通过 Model Context Protocol 协议,将 Airflow 任务调度平台的功能以工具形式提供给 LLM 客户端调用的 MCP 服务器。

Youtube Summarizer

Youtube Summarizer MCP Server是一个基于MCP协议的服务端,将Youtube摘要API封装为工具,供LLM应用调用,实现视频摘要和聊天功能。

Coinmarket Server

Coinmarket MCP服务器是一个应用后端,通过MCP协议向LLM客户端提供来自Coinmarket API的加密货币市场数据,包括最新的加密货币列表和报价信息,支持以资源和工具两种方式访问。

Dify Workflow Server

Dify Workflow Server是一个MCP服务器,它允许LLM客户端通过工具调用来执行和管理Dify平台上的工作流。

Linkup Search

基于MCP协议实现的Linkup搜索服务,为LLM提供联网搜索工具,扩展其知识范围至实时信息和优质内容。

Penumbra Blockchain

Penumbra MCP服务器为LLM应用提供访问Penumbra区块链的工具,实现隐私交易查询、验证器信息、DEX状态和治理提案等功能。

Supabase Notes

基于Supabase的MCP服务器,提供数据库查询、记录增删改查工具,方便LLM应用访问Supabase数据。

HuggingFace Space

mcp-hfspace 是一个 MCP 服务器,它连接了 Claude Desktop 等 MCP 客户端与 Hugging Face Spaces,使得用户可以通过 Claude 等工具调用 Hugging Face Spaces 上托管的各种模型和服务,例如文生图、语音合成、视觉模型等。

HotNews Server

HotNews Server是一个MCP服务器,提供来自中国社交平台和新闻网站的实时热点新闻,支持通过工具调用获取指定平台的热榜数据,以Markdown格式返回。