← 返回首页

"知识管理"标签的搜索结果

找到 71 个结果

Dolphin 知识库 MCP 服务器

Dolphin 是一个为 AI 接口提供语义代码搜索和知识管理的 MCP 服务器,通过托管资源、注册工具和定义 Prompt 模板,以标准化方式向 LLM 客户端提供上下文信息和功能。

srchd: 多智能体协作研究平台

`srchd` 通过模拟学术发表与评审系统,编排多个AI智能体协作解决复杂的推理和搜索密集型问题,尤其擅长漏洞搜索,并集成了多个MCP服务器提供核心功能。

Claude Skills MCP 服务器

一个基于Model Context Protocol (MCP) 的服务器,为任何AI模型提供智能的Claude Agent技能搜索和文档访问功能。

Doughnut AI知识管理服务器

为大型语言模型(LLM)提供个人知识管理(PKM)上下文和工具的MCP服务器实现。

BuildAutomata AI记忆MCP服务器

为AI代理提供持久化、可搜索、带版本控制和洞察分析的长期记忆系统,通过MCP协议与LLM客户端通信。

Memory Journal MCP 服务器

一个生产级的开发者日志MCP服务器,支持知识图谱、关系可视化、智能搜索及Git/GitHub项目集成。

Theoria - 神学研究引擎

Theoria 是一个现代神学研究引擎,能索引个人图书馆、规范圣经引文、提供AI洞察,并作为MCP服务器为LLM应用提供上下文服务。

Org-mode MCP 服务器

将您的Org-mode文件转化为LLM可用的上下文资源,提供Org-mode知识的搜索、内容访问及笔记链接等功能。

Intuit:AI个人助手

Intuit是一个灵活的AI个人助手,通过CLI、语音或直接命令行调用,集成了文件系统RAG、网络搜索、Gmail、天气、本地生产力工具及持久化记忆,并可作为MCP服务器暴露其工具。

fpf-sync MCP服务器

基于Model Context Protocol (MCP) 的后端服务,用于管理和暴露First Principles Framework (FPF) 领域的知识资源和操作工具,支持与LLM客户端进行上下文交互。

LLM知识图谱服务器

为LLM提供持久化记忆和上下文管理服务,支持文档存储、语义检索、分析与集群化,助力LLM构建长期知识。

WeMake企业级MCP服务器生态系统

WeMake AI提供一套生产就绪的企业级MCP服务器,为LLM安全提供多样化认知与操作能力,满足GDPR合规。

知识图谱MCP服务器

将知识图谱的核心功能通过Model Context Protocol (MCP) 标准化为LLM可调用的工具,实现智能上下文服务和数据交互。

CheQQme数据中心MCP服务器

为LLM客户端提供CheQQme数据中心的结构化资源,支持AI语义搜索与自动化。

ReasonSuite

ReasonSuite是一个MCP服务器,通过提供结构化思维工具、可重用Prompt模板和参考资源,赋能大型语言模型进行复杂问题推理。

Vector MCP:向量数据库统一管理服务

提供基于MCP协议的统一接口,管理多种向量数据库的集合、文档和RAG检索功能,简化LLM的上下文集成。

Obsidian CLI MCP 服务器

为 Obsidian 笔记库提供上下文管理和工具调用能力的 MCP 服务器,方便 AI 助手集成。

Obsidian GitHub MCP

连接AI助手到GitHub上托管的Obsidian知识库,提供内容检索、文件搜索、任务集成和历史追踪能力。

YAMS MCP 服务器

YAMS MCP 服务器为大型语言模型(LLM)及应用提供持久化内存、上下文信息,并支持内容寻址存储、去重、压缩、全文和语义搜索等功能。

Semiont - 语义知识平台

一个AI驱动的语义知识平台,从非结构化内容中自动提取知识图谱,为RAG系统提供丰富的上下文理解和LLM集成服务,其中包含一个符合MCP协议的核心服务器模块。

Obsidian Vault MCP 服务器

一个AI原生MCP服务器,通过本地REST API为LLM提供与Obsidian笔记库交互的智能工具。

Purmemo MCP 服务器

Purmemo MCP 服务器是专为 Purmemo 记忆服务打造的 Model Context Protocol 实现,提供 LLM 客户端与智能记忆后端进行资源管理和工具调用的标准化接口。

Veas CLI

Veas CLI是一个通用命令行工具,通过实现Veas协议和内置MCP服务器,为知识管理系统和AI助手提供无缝集成。

Obsidian-Milvus-FastMCP

通过MCP协议连接Obsidian笔记与LLM,利用Milvus进行智能搜索和RAG。

PlaybookMCP

一个基于Model Context Protocol (MCP) 的服务器,用于团队协作共享和管理AI/代理的自动化指令集(Playbook)。

Notelog

命令行笔记工具,包含一个MCP服务器,允许AI助手管理个人笔记。

WebInsight - 本地优先的AI内容平台

基于MCP协议的本地优先平台,用于网页内容提取、AI分析与知识管理。

Confluence MCP 服务器

连接Confluence数据中心的MCP服务器,提供通过工具访问和管理Confluence内容的能力。

ObsidianFetch

一个专注于从Obsidian笔记库检索信息的MCP服务器,为LLM提供上下文。

MCP笔记服务器

基于MCP协议的个人笔记服务器,为大语言模型提供笔记内容访问、搜索和分析能力。

Onlysaid

Onlysaid是一个集成平台,通过代理和自然语言完成任务,其后端包含多个基于MCP协议的服务器,提供上下文信息和功能。

Kash

基于MCP协议的AI原生命令行工具和应用后端,提供知识任务管理和AI工具调用能力。

MCP Think Tank

MCP Think Tank为LLM客户端提供结构化思考、持久记忆、任务管理和网络研究工具,增强其推理和问题解决能力。

Readwise MCP服务器

Readwise MCP服务器是一个基于Model Context Protocol的应用后端,旨在帮助LLM客户端便捷地访问和利用Readwise平台上的个人知识数据,实现智能信息检索与应用。

知识图谱MCP服务器

基于MCP协议构建,提供知识图谱的创建、管理、分析和可视化服务,无缝对接支持MCP协议的AI客户端。

Egent平台

Egent是一个连接工程师与AI Agent的平台,通过MCP协议提供知识库、任务模板和任务启动能力,辅助Agent执行代码开发任务。

Confluence MCP 服务器示例

Confluence MCP 服务器是一个示例实现,允许 LLM 客户端通过 MCP 工具访问和操作 Confluence 内容。

Ghostie 智能助手

Ghostie 是一款基于 Tauri + React 开发的跨平台智能助手桌面应用,旨在简化用户与各种 AI 模型的交互,提供桌面系统集成和插件扩展能力,但并非 MCP 服务器实现。

Logseq 知识库 MCP 工具

一个 MCP 服务器,为 AI 助手提供对 Logseq 知识图谱的结构化访问能力,支持多种知识检索和分析工具。

微信读书 MCP 服务器

一个轻量级的 MCP 服务器,桥接微信读书数据到 MCP 客户端,提供书架、笔记等访问工具,方便用户在 AI 应用中利用微信读书内容。

Zettelkasten MCP服务器

基于MCP协议的Zettelkasten知识管理服务器,为LLM提供结构化知识库访问和操作能力。

MCP Obsidian Server

Obsidian MCP Server enables LLMs to access and interact with your Obsidian vault through the Model Context Protocol.

Flomo 笔记 MCP 服务器

一个 MCP 服务器,允许用户通过工具将文本笔记写入 Flomo 笔记应用。

分形思维MCP服务器

Fractal Thinking MCP Server是一个基于Model Context Protocol的后端服务,用于支持分形思维分析,提供结构化思考和问题分解工具,辅助LLM进行复杂问题处理。

Basic Memory

Basic Memory是一个本地优先的知识库,使用Markdown文件和模型上下文协议(MCP),使LLM能够通过对话构建持久化的知识。

Notion内容库MCP服务器

一个用于管理Notion内容数据库的MCP服务器,通过工具提供内容查询、创建和更新功能,方便LLM客户端集成Notion数据。

结构化思维 MCP 服务器

基于 MCP 协议的服务器,帮助 LLM 构建结构化思维导图,提供元认知反馈以改进思考过程。

统一知识管理系统

集成多源知识的统一知识管理系统,通过MCP服务器为LLM客户端提供结构化知识访问和检索能力。

Readwise MCP 服务器

Readwise MCP 服务器为 LLM 应用提供访问 Readwise 知识库的标准化接口,支持资源检索、工具调用和 Prompt 模板定制。

GistPad MCP服务器

GistPad MCP服务器允许用户通过GitHub Gists管理和共享个人知识与日常笔记,并以MCP协议提供资源和工具访问。

Researcher MCP Server

基于MCP协议的研究服务器,集成Perplexity AI以增强研究和文档编写能力。

Anki 知识卡片 MCP 服务器

Anki MCP Server 是一个连接 Anki 知识卡片软件的 MCP 服务器,允许 LLM 客户端通过工具操作和管理 Anki 卡片。

Smart-Thinking智能思考服务器

基于MCP协议构建的智能思考服务器,提供多维推理、知识记忆和工具集成等功能,增强LLM上下文理解和问题解决能力。

Inkdrop 笔记上下文服务器

为Inkdrop笔记应用提供上下文访问能力的MCP服务器,支持笔记检索、创建、更新等功能,方便LLM应用集成Inkdrop数据。

pocket pick

Pocket Pick是一个个人知识库MCP服务器,允许用户存储和检索代码片段、笔记和想法,并通过标签进行组织和搜索,方便用户快速查找和使用个人知识。

starbridge

Starbridge是一个MCP服务器,旨在桥接Claude桌面应用与Web、Google及Atlassian工作区,提供资源访问、工具调用和Prompt模板服务。

mcp kibela

此项目为 MCP 服务器,旨在连接 Kibela 知识库,使 AI 助手能够安全地搜索和访问 Kibela 中的笔记内容。

mcp server

Inkdrop MCP Server为LLM客户端提供访问Inkdrop笔记应用数据的能力,支持笔记检索、创建和笔记本列表等功能。

MCPNotes

基于MCP协议的个人笔记应用,支持AI通过工具调用进行笔记管理,数据存储在AWS DynamoDB。

mcp server rememberizer

连接大型语言模型与Rememberizer知识库,提供文档搜索、检索和数据集成等功能,作为MCP协议服务器为LLM应用提供上下文服务。

researcher mcp

Researcher MCP Server是一个研究型MCP服务器,集成了Perplexity AI,旨在提升研究和文档编写效率,提供增强的上下文建模能力。

Anki Cards (Clanki)

Clanki是一个MCP服务器,它使AI助手能够与Anki抽认卡互动,方便用户通过AI创建、管理和学习Anki卡片。

Notion

基于Model Context Protocol构建的Notion MCP服务器,通过工具集成Notion API,使LLM客户端能够与Notion工作空间进行交互,实现内容管理和信息检索等功能。

Branch Thinking

Branch Thinking是一个MCP服务器,实现了基于分支的思考导航工具,帮助用户组织和管理多条思考分支,并支持洞察生成和交叉引用。

LogSeq

LogSeq MCP Server是一个允许LLM通过MCP协议与LogSeq知识库进行交互的后端服务,提供笔记创建、查询等功能。

Knowledge Graph Memory Server

基于本地知识图谱的MCP服务器,为LLM提供持久化记忆功能,支持实体、关系和观察的存储、检索和管理。

XMind Server

XMind Server是一个MCP服务器,用于分析和查询XMind思维导图文件,支持文件搜索、节点提取、任务管理等功能。

Notes Server

Notes Server 是一个 MCP 服务器,用于管理个人笔记,支持创建、读取、更新、删除笔记,并通过 Prompt 模板进行笔记总结和资源访问。

MCP Notes

基于MCP协议的个人笔记服务器,支持AI模型进行笔记管理,提供资源和工具接口,使用DynamoDB存储。

Anki

Anki MCP Server是一个连接本地Anki桌面应用的MCP服务器,允许LLM客户端通过资源访问Anki卡片数据,并使用工具操作Anki,例如更新卡片复习进度、添加新卡片等。

Atlassian Integration

集成Atlassian Confluence和Jira与Model Context Protocol,为LLM应用提供访问和管理Confluence页面及Jira issue的能力。