使用说明
项目简介
Minima 是一个开源的本地 RAG (Retrieval-Augmented Generation) 应用,可以作为 MCP 服务器与 Anthropic Claude 等 LLM 客户端集成,为其提供本地文档的检索和上下文信息。
主要功能点
- 本地文档检索: 支持对本地 PDF, DOCX, TXT 等多种格式的文档进行索引和检索。
- 工具调用: 提供 'query' 工具,允许 LLM 客户端查询本地文档内容。
- Prompt 定制: 提供 'query' Prompt,支持根据用户查询动态生成上下文 Prompt。
- MCP 协议支持: 实现了 MCP 协议,可以与支持 MCP 的 LLM 客户端 (如 Anthropic Claude) 进行通信。
安装步骤
- 确保本地 Python 环境版本 >= 3.10,并已安装 'uv'。
- 克隆仓库到本地。
- 复制 '.env.sample' 文件并重命名为 '.env',根据需要修改 '.env' 文件中的环境变量,特别是 'LOCAL_FILES_PATH' 指定本地文档路径。
- 运行命令 'docker compose -f docker-compose-mcp.yml --env-file .env up --build' 启动 MCP 服务器。
服务器配置
{ "mcpServers": { "minima": { "server name": "minima", // 服务器名称,客户端配置中用于标识服务器 "command": "uv", // 启动服务器的命令,这里使用 'uv' 运行 Python "args": [ // 启动参数列表 "--directory", "/path_to_cloned_minima_project/mcp-server", // 请替换为克隆仓库中 mcp-server 目录的实际路径 "run", "minima" // 运行 'minima' Python 包,对应 mcp-server/src/minima/__init__.py 中的 main() 函数 ] } } }
基本使用方法
- 启动 MCP 服务器后,在支持 MCP 协议的 LLM 客户端 (如 Anthropic Claude) 中配置上述服务器信息。
- 在 LLM 客户端中,即可使用 'query' 工具或 'query' Prompt,输入查询内容,LLM 将调用 Minima MCP 服务器检索本地文档并获取上下文信息。
信息
分类
数据库与文件