使用说明

项目简介

Unichat MCP Server 是一个实现了 Model Context Protocol (MCP) 的服务器,旨在为大型语言模型 (LLM) 客户端(如 Claude Desktop)提供标准化的上下文信息和功能访问接口。它允许客户端通过预定义的 Prompt 模板或工具调用,便捷地使用多种 LLM 模型,例如 OpenAI, MistralAI, Anthropic, xAI 和 Google AI。

主要功能点

  • Prompt 模板: 内置了代码审查、代码文档生成、代码解释和代码重构等 Prompt 模板,方便用户快速进行代码相关的 LLM 交互。
  • 工具调用: 提供 'unichat' 工具,允许客户端直接发送自定义消息与配置的 LLM 模型进行对话。
  • 多模型支持: 支持多种 LLM 模型,包括 OpenAI, MistralAI, Anthropic, xAI 和 Google AI (通过 Unichat 库实现)。
  • 标准化 MCP 协议: 遵循 MCP 协议,确保与兼容的客户端(如 Claude Desktop)无缝集成。

安装步骤

  1. 确保已安装 Python 环境。
  2. 克隆仓库代码到本地:'git clone https://github.com/MCP-Mirror/amidabuddha_unichat-mcp-server'
  3. 进入仓库目录:'cd amidabuddha_unichat-mcp-server'
  4. 使用 'uv' (或 'pip') 安装项目依赖:'uv sync' (或 'pip install .')

服务器配置

MCP 服务器需要配置在 MCP 客户端中。以下是针对 Claude Desktop 客户端的配置示例。请根据你的实际情况修改路径和 API Key。

开发/未发布服务器配置 (Development/Unpublished Servers Configuration):

"mcpServers": {
  "unichat-mcp-server": {
    "command": "uv",
    "args": [
      "--directory",
      "{{你的代码本地目录}}/unichat-mcp-server",  //  请替换为你的代码实际存放路径
      "run",
      "unichat-mcp-server"
    ],
    "env": {
      "UNICHAT_MODEL": "SELECTED_UNICHAT_MODEL", //  指定要使用的 LLM 模型,例如 "gpt-4o-mini"
      "UNICHAT_API_KEY": "YOUR_OPENAI_API_KEY"   //  请替换为你的 LLM API Key
    }
  }
}

已发布服务器配置 (Published Servers Configuration):

"mcpServers": {
  "unichat-mcp-server": {
    "command": "uvx",
    "args": [
      "unichat-mcp-server"
    ],
    "env": {
      "UNICHAT_MODEL": "SELECTED_UNICHAT_MODEL", //  指定要使用的 LLM 模型,例如 "gpt-4o-mini"
      "UNICHAT_API_KEY": "YOUR_OPENAI_API_KEY"   //  请替换为你的 LLM API Key
    }
  }
}

注意:

  • '{{你的代码本地目录}}/unichat-mcp-server' 需要替换为你在本地克隆代码的实际路径。
  • 'UNICHAT_MODEL' 环境变量用于指定要使用的 LLM 模型。支持的模型列表可以在 unichat 仓库 中找到。
  • 'UNICHAT_API_KEY' 环境变量需要设置为对应 LLM 供应商的 API Key。

基本使用方法

  1. 确保 MCP 服务器已配置并在 MCP 客户端中启动。
  2. 在 MCP 客户端中,可以使用预定义的 Prompt 模板(例如 'code_review', 'document_code' 等)来执行相应的代码处理任务。
  3. 也可以使用 'unichat' 工具,通过发送包含 'messages' 参数的请求,与配置的 LLM 模型进行自定义对话。
  4. 具体的使用方式取决于 MCP 客户端的功能和界面。请参考你使用的 MCP 客户端的文档。

信息

分类

AI与计算