连接LLM与Atlassian Jira和Confluence云平台,提供50+工具,实现智能管理工作流和知识库。
将 Raindrop.io 收藏管理功能通过 MCP 协议暴露给 AI 助手,实现书签、收藏夹、标签、高亮批注等的高效管理。
为LLM提供Salesforce支持案例的语义搜索和摘要获取功能,通过MCP协议与客户端交互。
将您的Simplenote笔记无缝集成到支持Model Context Protocol (MCP) 的LLM客户端中。
基于 Meilisearch 的轻量级 MCP 服务器,提供 Markdown 文档的全文和向量搜索能力。
News Guy 是一个基于 FastAPI 和 MCP 的后端服务,用于查询和处理 Fireship YouTube 频道视频信息,支持 AI 驱动的问答。
基于 Next.js 构建的 EigenLayer MCP 服务器,通过 MCP 协议向 AI 助手提供 EigenLayer 文档资源访问能力。
一个MCP服务器,用于检索和访问YouTube播放列表的视频转录文本,为LLM应用提供视频内容上下文。
Confluence MCP服务器是一个基于Model Context Protocol的后端实现,旨在让AI助手能够通过标准接口安全访问和操作Confluence知识库中的内容。
用于从指定目录加载和整理 Memory Bank 文件的 MCP 服务器,优化 AI 模型上下文输入。
Raindrop MCP Server是一个允许LLM客户端通过MCP协议访问和操作Raindrop.io书签和集合的工具服务器。
连接 QA Sphere 测试管理系统的 MCP 服务器,为 LLM 提供测试用例和项目信息,实现智能测试辅助。
Wiki-RAG MCP服务器基于Model Context Protocol,为LLM应用提供Mediawiki知识库的上下文服务,支持资源访问、工具调用和Prompt模板定制。
AI Memory 扩展通过模型上下文协议(MCP)集成,为Cursor等LLM客户端提供结构化的项目上下文管理服务,支持资源访问、工具调用和Prompt模板定制。
连接AI助手和Atlassian Confluence的MCP服务器,实现Confluence内容的安全访问和功能调用。
TiAssistant MCP 服务提供用于分析 TiDB Pull Requests 信息和知识库问答的后端服务,通过 MCP 协议与客户端交互,为 LLM 应用提供上下文信息和功能。
Confluence Gateway 利用AI能力增强 Confluence 搜索和知识检索,未来计划提供 MCP 服务器功能。
Archon Agenteer MCP Server为AI IDE提供 agent 构建能力,支持通过 Model Context Protocol (MCP) 协议与客户端通信,实现agent工具注册、执行和上下文信息管理。
基于 Chroma MCP,提供 Swift 语言演进提案的检索和访问能力,为 LLM 应用提供 Swift 语言知识库。
Mattermost MCP 服务器是一个基于 Model Context Protocol (MCP) 的应用后端,旨在将 Mattermost 平台的消息数据作为上下文信息,以标准化的方式提供给 LLM 客户端。
Claude Hands 是一个基于 MCP 协议的服务器,旨在增强 Claude Desktop 的功能,集成 Tavily 搜索并支持生成图形化信息图。
基于Model Context Protocol (MCP) 的智能记忆服务器,为VS Code等LLM客户端提供结构化上下文管理服务。
为LLM应用提供访问GitHub Enterprise数据的MCP服务器,支持获取仓库、议题、PR等信息。
一个MCP服务器,通过工具集成Pinecone Assistant,为LLM应用提供来自Pinecone知识库的上下文信息检索能力。
Raindrop.io MCP 服务器将你的 Raindrop 书签服务连接到 LLM,使 LLM 能够访问和管理你的书签。
Confluence MCP Server是一个为AI Agent设计的应用后端,通过Model Context Protocol (MCP) 提供Confluence知识库的访问和管理能力。
基于 MCP 协议,提供 Svelte 5 文档的语义搜索功能,使 LLM 能够准确查询 Svelte 5 相关信息。
为 EventCatalog 提供 MCP 接口,支持 Claude、Cursor 等 MCP 客户端访问 EventCatalog 的架构文档和信息。
为开发者提供基于Vonage API文档的AI代码助手,通过MCP协议集成到LLM客户端,实现文档检索和信息获取。
集成Obsidian、Kibela、Brave搜索和Slack的MCP服务器,扩展Claude的功能。
基于Model Context Protocol (MCP) 构建的服务器,集成了Sionic AI Storm平台的RAG能力,为LLM客户端提供工具和资源访问。
该项目是Props Labs提供的MCP服务器集合中的Fireflies服务器实现,允许LLM客户端通过MCP协议访问Fireflies.ai的会议记录,进行检索、查看详情和生成摘要等操作。
OpenWebUI-server 是一个 MCP 服务器,它为 Cline 客户端提供 OpenWebUI 的知识库访问和工具集成能力,例如文件上传和基于 RAG 的对话功能。
duckduckgo-mpc-server 是一个基于 Model Context Protocol 的服务器,为 LLM 客户端提供 DuckDuckGo 网页搜索工具,方便 LLM 获取最新的网络信息。
该项目是一个MCP服务器,为LLM客户端提供访问Roam Research知识库的桥梁,支持页面内容读取、页面和块创建、Markdown导入及TODO添加等功能,方便AI助手与用户的Roam笔记进行交互。
JANHMS_needle-mcp 是一个 MCP 服务器,它利用 Needle 平台的功能来管理文档集合并执行语义搜索,为 LLM 客户端提供文档知识库访问能力。
基于Model Context Protocol (MCP) 协议,连接Atlassian Confluence和Jira云平台的服务器,提供资源浏览和工具调用能力,方便LLM应用访问Atlassian数据。
Contentful MCP Server是一个基于Model Context Protocol的应用后端,集成了Contentful内容管理API,为LLM提供内容管理能力,包括内容条目、资产、内容类型和空间的CRUD操作。
基于MCP协议实现的OpenSearch工具服务器,提供OpenSearch的查询和索引信息检索功能。
JANHMS_needle-mcp-server 是一个基于 MCP 协议的服务器,它利用 Needle API 为 Claude 等 LLM 应用提供文档集合管理和语义搜索能力。
Cursor Apple Notes Indexer 是一个 MCP 应用,允许在 Cursor 编辑器内快速搜索和访问本地 Apple Notes。
该项目是一个基于Python FastMCP框架实现的MCP服务器,旨在为LLM应用提供访问Elasticsearch数据和搜索Elasticsearch文档及博客的能力。
Rowik MCP服务器是一个基于FastMCP框架实现的工具服务器,旨在为LLM客户端提供访问和搜索个人MediaWiki的功能,包括页面搜索、内容获取、分类列表和最近更改页面查询等工具。
Glean MCP服务器是一个基于Model Context Protocol的后端实现,集成了Glean API,为LLM客户端提供企业搜索和聊天工具,方便LLM应用访问企业内部知识库和信息。
此项目是一个MCP服务器,为AI助手提供Confluence Cloud内容管理工具,支持空间、页面、搜索和标签操作。
Bear MCP Server 是一款允许大型语言模型客户端访问本地 Bear Notes 笔记内容的 MCP 服务器,支持检索笔记和标签。
Roam Research MCP Server为 Claude 等 AI 助手提供标准化的接口,使其能够访问和操作 Roam Research 知识库,实现内容检索、编辑和管理等功能。
Confluence MCP服务器是一个应用后端,它允许LLM客户端通过Model Context Protocol访问和检索Confluence知识库中的页面和博客文章内容。
Paperless-NGX MCP Server为Claude等LLM应用提供与Paperless-NGX文档管理系统交互的工具,实现文档的搜索、上传、下载和管理等功能。
该项目是一个MCP服务器,允许LLM客户端通过工具调用获取GitHub issue详情,用于为LLM提供任务上下文。
Apple Notes MCP Server连接 Claude Desktop 与本地 Apple Notes 数据库,使 Claude 能够访问和搜索用户的笔记内容,扩展 LLM 的知识库。
OpenSearch MCP Server为LLM应用提供语义记忆能力,通过工具连接OpenSearch,实现文档的存储和检索,作为LLM的外部知识库。
Scryfall MCP Server是一个基于Model Context Protocol的应用后端,为LLM客户端提供访问万智牌卡牌信息的功能,包括搜索卡牌、获取卡牌详情、卡牌价格和卡牌裁定等。
Confluence communication server是一个基于Model Context Protocol (MCP) 的应用后端,旨在为LLM客户端提供Confluence和Jira知识库的访问和操作能力,支持页面检索、内容获取、页面管理、Jira问题和sprint管理等功能。
Needle MCP服务器是一个基于Model Context Protocol的后端实现,它利用Needle AI的服务为LLM客户端提供文档管理、存储和语义搜索功能。
OneNote Server MCP 是一个基于 Model Context Protocol 的服务器实现,它使AI语言模型能够安全地访问和管理 Microsoft OneNote 中的笔记本、分区和页面内容。
Perplexity Chat MCP Server是一个基于Python的MCP服务器,通过工具集成Perplexity API,为LLM客户端提供问答、聊天和历史记录管理功能。