使用说明
项目简介
Plugged.in是一个创新的AI内容管理系统(AI-CMS),旨在解决AI交互中知识易逝的问题。它将您与AI的每一次对话、每次生成的内容都转化为可版本控制、可搜索、可归因的永久性知识资产。
更重要的是,Plugged.in通过实现Model Context Protocol (MCP) 标准,充当一个中央枢纽,聚合和管理数千种兼容MCP的AI工具、数据资源和Prompt模板。LLM客户端(如Claude Desktop, Cursor IDE等)可以通过连接到Plugged.in,统一访问所有这些功能,从而获得更丰富、更持久、更智能的上下文服务。
主要功能点
- AI记忆持久化与文档管理: 将AI生成内容进行Git风格的版本控制,支持语义搜索,并追踪不同AI模型的贡献。支持多种文档格式(PDF, Markdown, Code, 图片等)。
- 统一MCP服务接口: 作为LLM客户端的MCP代理服务器,提供一个标准化的JSON-RPC接口,用于发现、调用工具,访问资源和获取Prompt模板,无需直接管理底层复杂的AI服务。
- 工具与资源注册: 能够注册和管理来自Registry、GitHub、npm等来源的MCP工具和资源,并支持工具的自动发现与命名空间管理,避免冲突。
- 安全与沙箱化执行: 提供端到端加密存储敏感配置、沙箱化执行STDIO类型的MCP工具(基于Firejail/Bubblewrap)、SSRF防护、OAuth 2.1认证、速率限制等企业级安全功能。
- 多模型协作与归因: 记录每次AI交互所使用的模型,并追踪不同模型在文档版本迭代中的贡献,促进跨模型协作。
- 会话管理: 对LLM客户端的请求进行会话管理,维护状态和上下文。
- 实时监控与分析: 跟踪MCP操作活动、工具调用次数、通知,并提供趋势分析和审计日志。
- 开发者SDK: 提供JavaScript/TypeScript、Python、Go等多种语言的SDK,方便开发者将AI记忆和RAG能力集成到自己的应用中。
安装步骤
Plugged.in平台支持Docker一键部署和手动安装。
方式一:使用 Docker Compose 快速部署(推荐)
- 克隆仓库:
git clone https://github.com/VeriTeknik/pluggedin-app.git cd pluggedin-app - 配置环境变量:
复制 '.env.example' 文件为 '.env',并根据您的实际情况修改其中的数据库连接、认证密钥等变量。'NEXTAUTH_SECRET' 和 'NEXT_SERVER_ACTIONS_ENCRYPTION_KEY' 是必须的,您可以使用 'openssl rand -base64 32' 命令生成。
cp .env.example .env # 编辑 .env 文件,至少设置 DATABASE_URL, NEXTAUTH_URL, NEXTAUTH_SECRET, NEXT_SERVER_ACTIONS_ENCRYPTION_KEY - 启动平台:
运行Docker Compose命令,它将构建并启动所有必需的服务(如PostgreSQL数据库和Plugged.in应用)。
docker compose up --build -d - 访问应用: 等待所有服务启动成功后,您可以通过浏览器访问 'http://localhost:12005'。
方式二:手动安装
- 安装依赖:
确保您已安装 Node.js (18+), PostgreSQL (15+) 和 pnpm。
pnpm install - 配置数据库:
在 '.env' 文件中配置 'DATABASE_URL',然后运行数据库迁移命令。
pnpm db:migrate:auth pnpm db:generate pnpm db:migrate - 构建和启动:
NODE_ENV=production pnpm build pnpm start - 访问应用: 应用通常会在 'http://localhost:12005' 启动。
服务器配置(供MCP客户端连接)
要将LLM客户端(如Claude Desktop, Cursor IDE或其他兼容MCP的客户端)连接到Plugged.in平台,您需要将其配置为连接到一个 Streamable HTTP 类型的MCP服务器。Plugged.in平台会作为这个MCP服务器,处理来自LLM客户端的请求,并根据您在平台中配置的具体MCP服务器(工具、资源等)进行代理和响应。
以下是LLM客户端(例如,在Claude Desktop或Cursor IDE的配置文件中)所需的配置信息说明:
- 服务器名称: 为此连接自定义一个易于识别的名称,例如“Plugged.in AI助手”、“我的知识库”。
- 连接类型: 选择 'Streamable HTTP'(流式HTTP)。
- 连接地址 (URL):
- 如果您正在使用 Plugged.in云服务,URL通常是 'https://plugged.in/api/mcp'。
- 如果您是 自部署 的,URL将是您部署的Plugged.in平台的地址,后接 '/api/mcp'。例如,'http://localhost:12005/api/mcp'。
- 认证头部 (Headers): 您需要在HTTP请求头部提供认证信息,以确保安全访问和正确路由到您的工作区。这些头部通常以JSON格式或键值对形式配置在LLM客户端中。
- 'Authorization': 提供您在Plugged.in平台生成的API密钥,格式为 'Bearer YOUR_API_KEY'。请将 'YOUR_API_KEY' 替换为您的实际API密钥。您可以在Plugged.in平台的用户设置中找到或生成API密钥。
- 'x-mcp-server-uuid': 这是您在Plugged.in平台创建的 特定MCP服务器 的唯一标识符(UUID)。这个UUID告诉Plugged.in平台,您希望通过哪个MCP服务器来执行工具或访问资源。
- 'x-mcp-profile-uuid': 这是您在Plugged.in平台的用户 配置文件 的唯一标识符(UUID)。它用于识别您的个人工作区和权限。
获取API密钥和UUID: 请登录您的Plugged.in平台账户,在“API Keys”或“Settings”部分查找您的API密钥。MCP服务器和Profile的UUID通常在创建或管理它们时显示。
基本使用方法
- 注册与登录: 访问Plugged.in平台并创建您的账户。
- 创建配置文件: 在您的项目中创建至少一个配置文件(Profile),这是您所有AI相关工作的基础。
- 添加MCP服务器: 在平台界面中,导航到“MCP Servers”或“Discover”页面,您可以:
- 发现并添加现有MCP工具: 从公共Registry或GitHub仓库中查找并添加MCP工具。
- 创建自定义MCP服务器: 配置STDIO、SSE或Streamable HTTP类型的MCP服务器。
- 管理MCP服务器配置: 对已添加的MCP服务器进行编辑,设置命令、URL、环境变量、API Key等。
- 上传文档: 在“Library”页面上传您的文档,这些文档将通过RAG (Retrieval-Augmented Generation) 集成到您的AI知识库中。
- 连接LLM客户端: 根据上述“服务器配置”说明,配置您的LLM客户端(如Claude Desktop或Cursor IDE)连接到Plugged.in平台。
- 开始交互: 在LLM客户端中,您可以调用在Plugged.in平台配置的工具、访问存储的文档、使用Prompt模板,Plugged.in平台将作为中间层,安全、高效地处理所有请求。
信息
分类
AI与计算