使用说明
项目简介
Inkeep文档知识库MCP服务器是一个基于Model Context Protocol (MCP) 的服务器实现,旨在为大型语言模型 (LLM) 提供结构化的文档检索能力。它利用 Inkeep 平台的 RAG (Retrieval-Augmented Generation) API,允许LLM通过 'rag-search' 工具查询和获取相关文档片段,从而增强LLM在特定知识领域的上下文理解和生成能力。
主要功能点
- MCP协议支持: 遵循 MCP 协议标准,可以与任何兼容 MCP 协议的 LLM 客户端进行通信。
- 文档检索工具: 提供 'rag-search' 工具,允许 LLM 客户端通过自然语言查询检索 Inkeep 知识库中的相关文档。
- Inkeep RAG 集成: 深度集成 Inkeep RAG API,利用其先进的文档检索和问答能力。
- 标准化接口: 通过 JSON-RPC 协议与客户端交互,提供标准化的数据访问和工具调用方式。
安装步骤
-
克隆仓库:
git clone [email protected]:inkeep/mcp-server-python.git cd mcp-server-python -
创建虚拟环境并安装依赖:
uv venv uv pip install -r pyproject.toml -
配置环境变量: 您需要设置以下环境变量,这些变量用于连接 Inkeep API。请访问 Inkeep 门户 创建 API Integration 获取 API 密钥。
INKEEP_API_BASE_URL=https://api.inkeep.com/v1 # Inkeep API 基础 URL,通常无需修改 INKEEP_API_KEY=YOUR_INKEEP_API_KEY # 您的 Inkeep API 密钥 INKEEP_API_MODEL=inkeep-rag-20250310 # 使用的 Inkeep RAG 模型,默认为 inkeep-rag-20250310
服务器配置
为了让 MCP 客户端(例如 Claude Desktop)连接到此服务器,您需要提供服务器的启动配置信息。以下是一个 'claude_desktop_config.json' 示例,您需要根据实际情况修改路径和 API 密钥。
{ "mcpServers": { "your-docs-by-inkeep-mcp-server": { "command": "uv", "args": [ "--directory", "/ABSOLUTE/PATH/TO/PARENT/FOLDER/mcp-server-python", // 请替换为 mcp-server-python 仓库父目录的**绝对路径** "run", "-m", "inkeep_mcp_server" ], "env": { "INKEEP_API_BASE_URL": "https://api.inkeep.com/v1", // Inkeep API 基础 URL "INKEEP_API_KEY": "YOUR_INKEEP_API_KEY", // 请替换为您的 Inkeep API 密钥 "INKEEP_API_MODEL": "inkeep-rag-20250310" // Inkeep RAG 模型 } }, } }
配置参数说明:
- 'command': 启动服务器的命令,这里使用 'uv' 运行 Python 模块。
- 'args': 传递给 'uv' 命令的参数,包括:
- '--directory': 指定工作目录为 'mcp-server-python' 仓库的父目录。请务必替换为您的实际绝对路径。
- 'run -m inkeep_mcp_server': 运行 'inkeep_mcp_server' 模块,即启动 MCP 服务器。
- 'env': 设置服务器运行所需的环境变量,包括 Inkeep API 的相关配置。'INKEEP_API_KEY' 需要替换为您自己的 API 密钥。
基本使用方法
- 确保已正确安装和配置 MCP 服务器,并启动服务器。
- 在兼容 MCP 协议的 LLM 客户端中,配置并连接到 'your-docs-by-inkeep-mcp-server'。
- 在 LLM 交互过程中,您可以指示 LLM 使用 'rag-search' 工具来检索文档。例如,您可以提示 LLM "使用 'rag-search' 工具搜索关于...的文档"。
- 服务器会将查询发送到 Inkeep RAG API,并将检索到的文档信息返回给 LLM 客户端,作为上下文信息辅助 LLM 生成更准确和相关的回复。
信息
分类
AI与计算