基于 Claude AI Agent SDK 构建的个人智能助理,集成文件、Web 搜索、Python 自动化、Microsoft 365、浏览器和数据库等多种功能,支持命令行和 Web UI 交互。
该项目为AI助手提供对OpenShift Backplane CLI核心功能的访问,包括集群信息查询、登录管理、控制台访问及Kubernetes资源操作,通过标准化协议增强AI交互能力。
Claude-Mem 是一个为 Claude Code 提供持久化记忆功能的插件,通过 MCP 服务器提供强大的语义搜索工具,帮助用户管理和检索会话上下文及工具使用记录。
一个基于Model Context Protocol (MCP) 的服务器,能自动抓取文档网站并将其转换为适用于Claude AI的技能包。
一个基于Model Context Protocol (MCP) 构建的AI应用模板,提供功能强大的AI工具、API集成、数据库和协作能力,可部署到Cloudflare Workers。
一个基于Model Context Protocol (MCP) 的服务器,为AI代理提供全面的Windows系统诊断、硬件监控、进程与应用管理、事件日志分析及注册表诊断功能。
基于MCP协议,托管多种AI工具(如天气、航班、量子计算等),为LLM客户端提供上下文和能力。
连接AI助手至Firebase Realtime Database,通过标准化工具调用实现数据访问。
允许AI客户端通过MCP协议创建和管理子AI进程(基于Goose CLI),实现AI的递归调用和协作。
利用Google Apps Script构建MCP服务器,连接LLM应用与Google Workspace数据和功能。
一个基于Rust的MCP服务器,提供内嵌V8引擎,允许AI调用运行JavaScript代码,并支持持久化状态。
在 Cloudflare Workers 上部署无需认证的 MCP 服务器,提供图书搜索(数据库)和 AI 交互等工具功能。
一个基于MCP协议的服务端,使AI助手能够执行基础设施即代码 (IaC) 操作,集成Ansible和Terraform。
提供基于Databricks Unity Catalog和Genie的工具,帮助AI代理获取企业数据和执行操作。
通过Spring Boot和Spring AI,将Cloudflare R2对象存储功能暴露为MCP工具供LLM调用。
基于 Model Context Protocol (MCP),提供与 Atla API 交互的标准接口,用于 LLM 性能评估。
用于从指定目录加载和整理 Memory Bank 文件的 MCP 服务器,优化 AI 模型上下文输入。
Upstage MCP Server是一个连接AI助手和Upstage文档处理API的桥梁,提供文档解析和信息提取能力。
封装Google Gemini API的MCP服务器,通过标准化的MCP工具接口,为LLM客户端提供Gemini模型的各项能力。
一个使用 Spring Boot 构建的 MCP 服务器示例,对外提供课程信息查询工具,演示如何通过 MCP 协议向 LLM 应用提供结构化数据访问能力。
基于Spring Boot和Spring AI MCP框架的SQL服务,提供SQL查询和更新功能,作为AI工具扩展LLM能力。
为 Databutton MCP 服务器提供可扩展API功能的模板集合,助力 AI Agent 集成实用工具。
基于Model Context Protocol,为AI提供访问阿里云DataWorks Open API的标准化工具,实现云资源操作和管理。
HoneyHive TypeScript SDK 提供可安装的 Model Context Protocol (MCP) 服务器,将 SDK 方法作为工具暴露给 AI 应用,以管理上下文和功能。
通过Model Context Protocol (MCP) 协议,为LLM客户端提供Nano加密货币的交易和信息查询功能。
Google Scholar MCP Server是一个基于Model Context Protocol的应用后端,允许AI助手通过简单的MCP接口搜索和访问Google Scholar的学术论文。
该项目是一个基于 Model Context Protocol (MCP) 的服务器实现,它利用 Replicate 的 FLUX 模型生成图像,并将图像存储在 Cloudflare R2 云存储中,通过 MCP 协议为客户端提供图像生成工具。
基于 TypeScript 的 MCP 服务器快速启动模板,预置工具和 Prompt 示例,方便开发者快速搭建 MCP 后端服务。
Atoma SDK 仓库不仅提供Typescript SDK,还能作为MCP服务器运行,为AI应用提供模型访问和工具调用能力。
基于 Minimax API 的 MCP 服务器,提供图像生成和文本转语音工具,可与 Windsurf 和 Cursor 等编辑器集成。
一个基于Model Context Protocol的服务器,用于访问eRegulations API数据,为LLM应用提供结构化法规信息查询能力。
该仓库提供了一个基于TypeScript的SDK,用于与StreamStore API交互,并且它同时也是一个可安装的MCP服务器,可以将SDK的方法作为工具暴露给AI应用。
mcp-server-unitycatalog 是一个 MCP 服务器,它将 Unity Catalog Functions 作为工具提供给 LLM 客户端,方便 LLM 调用 Unity Catalog 中的函数。
workers-mcp-demo 是一个基于 Cloudflare Workers 构建的 MCP 服务器演示项目,提供图像生成、网页截图和图片提取等工具,可以与 Claude 和 Cursor 等 MCP 客户端集成,扩展 AI 助手的功能。
为 Claude Desktop 等 AI 工具提供 Kintone 数据访问和操作能力的 MCP 服务器。
Supabase MCP Server 允许AI模型通过标准化的MCP协议管理Supabase项目和组织,提供项目和组织信息的查询、创建和删除等功能。
一个MCP服务器,通过Pollinations.ai API提供图像和文本生成功能,允许AI模型通过MCP协议调用图像和文本生成工具,轻松集成图像和文本生成能力。
此MCP服务器为AI助手提供访问YouTube视频字幕的功能,支持AI助手进行视频内容总结和分析。
基于 Cloudflare Workers 的图像生成 MCP 服务器,提供通过文本提示生成图像的功能。
Hypernym MCP Server通过Hypernym AI API提供语义文本分析和压缩工具,并基于Model Context Protocol与客户端通信。
CrewAI MCP Server是一个基于Python实现的MCP服务器,它利用Claude API提供AI智能体和任务管理能力,支持通过JSON-RPC协议进行工具调用和会话交互。
Deep Reasoning Server (OpenRouter) 是一个基于 Model Context Protocol (MCP) 的服务器,为 MCP 客户端提供深度推理分析工具,支持通过 OpenRouter API 调用大型语言模型进行内容分析和优化。
通过MCP协议,使AI模型能够控制YouTube Music,在Chrome浏览器中搜索和播放音乐。
MCP Solver 是一个MCP服务器,通过集成MiniZinc约束求解器,为LLM提供约束建模和求解能力,支持模型编辑、求解和解信息查询,以及知识库管理。