使用说明
项目简介
Unichat MCP Server 是一个实现了 Model Context Protocol (MCP) 的服务器,旨在为大型语言模型 (LLM) 客户端(如 Claude Desktop)提供标准化的上下文信息和功能访问接口。它允许客户端通过预定义的 Prompt 模板或工具调用,便捷地使用多种 LLM 模型,例如 OpenAI, MistralAI, Anthropic, xAI 和 Google AI。
主要功能点
- Prompt 模板: 内置了代码审查、代码文档生成、代码解释和代码重构等 Prompt 模板,方便用户快速进行代码相关的 LLM 交互。
- 工具调用: 提供 'unichat' 工具,允许客户端直接发送自定义消息与配置的 LLM 模型进行对话。
- 多模型支持: 支持多种 LLM 模型,包括 OpenAI, MistralAI, Anthropic, xAI 和 Google AI (通过 Unichat 库实现)。
- 标准化 MCP 协议: 遵循 MCP 协议,确保与兼容的客户端(如 Claude Desktop)无缝集成。
安装步骤
- 确保已安装 Python 环境。
- 克隆仓库代码到本地:'git clone https://github.com/MCP-Mirror/amidabuddha_unichat-mcp-server'
- 进入仓库目录:'cd amidabuddha_unichat-mcp-server'
- 使用 'uv' (或 'pip') 安装项目依赖:'uv sync' (或 'pip install .')
服务器配置
MCP 服务器需要配置在 MCP 客户端中。以下是针对 Claude Desktop 客户端的配置示例。请根据你的实际情况修改路径和 API Key。
开发/未发布服务器配置 (Development/Unpublished Servers Configuration):
"mcpServers": { "unichat-mcp-server": { "command": "uv", "args": [ "--directory", "{{你的代码本地目录}}/unichat-mcp-server", // 请替换为你的代码实际存放路径 "run", "unichat-mcp-server" ], "env": { "UNICHAT_MODEL": "SELECTED_UNICHAT_MODEL", // 指定要使用的 LLM 模型,例如 "gpt-4o-mini" "UNICHAT_API_KEY": "YOUR_OPENAI_API_KEY" // 请替换为你的 LLM API Key } } }
已发布服务器配置 (Published Servers Configuration):
"mcpServers": { "unichat-mcp-server": { "command": "uvx", "args": [ "unichat-mcp-server" ], "env": { "UNICHAT_MODEL": "SELECTED_UNICHAT_MODEL", // 指定要使用的 LLM 模型,例如 "gpt-4o-mini" "UNICHAT_API_KEY": "YOUR_OPENAI_API_KEY" // 请替换为你的 LLM API Key } } }
注意:
- '{{你的代码本地目录}}/unichat-mcp-server' 需要替换为你在本地克隆代码的实际路径。
- 'UNICHAT_MODEL' 环境变量用于指定要使用的 LLM 模型。支持的模型列表可以在 unichat 仓库 中找到。
- 'UNICHAT_API_KEY' 环境变量需要设置为对应 LLM 供应商的 API Key。
基本使用方法
- 确保 MCP 服务器已配置并在 MCP 客户端中启动。
- 在 MCP 客户端中,可以使用预定义的 Prompt 模板(例如 'code_review', 'document_code' 等)来执行相应的代码处理任务。
- 也可以使用 'unichat' 工具,通过发送包含 'messages' 参数的请求,与配置的 LLM 模型进行自定义对话。
- 具体的使用方式取决于 MCP 客户端的功能和界面。请参考你使用的 MCP 客户端的文档。
信息
分类
AI与计算