项目简介

Outline知识库MCP服务器是一个基于Model Context Protocol (MCP) 构建的后端应用,旨在帮助LLM客户端(如Cursor IDE, Gemini CLI等)通过标准化的JSON-RPC接口与Outline知识库进行交互。它将Outline的文档、集合、评论等操作封装为可调用的工具(Tools),使LLM能够理解并执行这些功能,从而实现对知识库的智能访问和管理。

主要功能点

  • 文档操作: 支持创建、获取、更新、删除、列出、搜索文档,以及文档归档、移动、创建模板等。还提供AI驱动的文档查询功能。
  • 知识库集合管理: 允许创建、获取、更新、列出Outline中的知识库集合。
  • 评论与协作: 支持在文档上创建、更新、删除评论。
  • 用户管理: 提供列出Outline用户的功能。
  • 多协议支持: 可通过标准输入/输出(STDIO)或HTTP协议与LLM客户端通信。

安装步骤

  1. 获取Outline API密钥:
    • 对于Outline.com用户,请访问:'https://app.outline.com/settings/api-and-apps'
    • 对于自托管用户,请访问:'https://your-instance.com/settings/api-and-apps'
  2. 下载服务器二进制文件:GitHub Releases页面下载预编译的二进制文件。
  3. 解压并配置权限:
    • Linux/macOS: 解压后,如果需要,运行 'chmod +x outline-mcp' 使其可执行。
    • Windows: 由于发布版本未进行代码签名,Windows Defender可能会阻止运行。您需要:
      1. 通过Windows Defender/杀毒软件允许该可执行文件运行。
      2. 将存放可执行文件的文件夹添加到Windows Defender排除项中。
      3. 如果从互联网下载,右键点击文件 -> 属性 -> 勾选“解除锁定”。

服务器配置示例 (适用于MCP客户端)

MCP服务器通常由LLM客户端启动和管理。以下是一个JSON格式的配置示例,用于告诉LLM客户端如何启动和连接Outline知识库MCP服务器。请根据您的MCP客户端(如Cursor IDE, Gemini CLI等)的配置方式进行调整。

{
  "mcpServers": {
    "Outline knowledge base": {
      // 启动MCP服务器可执行文件的绝对路径。
      // - 务必使用绝对路径,相对路径可能无法正常工作。
      // - 路径中不要包含空格(可使用下划线或连字符)。
      // - 仅使用ASCII字符。
      // - Windows用户请使用双反斜杠 '\\'。
      //   例如:"/usr/local/bin/outline-mcp" (Linux/macOS) 或 "C:\\tools\\outline-mcp.exe" (Windows)
      "command": "full-location-of-outline-mcp-executable-file",
      "env": {
        // 您的Outline API密钥。这是访问Outline知识库所必需的。
        "OUTLINE_API_KEY": "your-api-key-here",
        // 您的Outline API的基础URL。默认为 Outline.com 的公共API。
        "OUTLINE_API_URL": "https://app.getoutline.com/api"
      },
      // 可以通过添加 "args": ["--http"] 来将服务器配置为HTTP模式。
      // 如果不指定,默认为STDIO模式。
      "args": []
    }
  }
}

在实际使用时,请将 'command' 和 'OUTLINE_API_KEY' 替换为您的实际值。

基本使用方法

配置完成后,您的LLM客户端将能够通过Model Context Protocol与Outline知识库MCP服务器通信。您可以在LLM客户端中直接提问或调用工具,例如:

  • “请帮我搜索Outline知识库中关于‘项目管理’的所有文档。”(LLM客户端可能会调用 'search_documents' 工具)
  • “在我的‘产品文档’集合中创建一个名为‘新功能设计’的文档,内容是‘这是一个关于XYZ新功能的设计文档。’”(LLM客户端可能会调用 'create_document' 工具)

LLM将根据您的指令,自动通过MCP服务器调用相应的Outline API功能。

信息

分类

AI与计算