项目简介

本项目 CoD提示工具服务器 (Chain of Draft Prompt Tool Server) 是一个实现了 Model Context Protocol (MCP) 协议的服务端应用。它通过 Chain of Draft (CoD) 提示技术,优化大型语言模型 (LLM) 的推理过程,旨在提高推理效率、降低Token使用量,同时保持或提升回答准确性。

主要功能点

  • Chain of Draft (CoD) 推理:核心功能,将标准 Prompt 转换为 CoD 或 Chain of Thought (CoT) 格式,提升LLM在各种推理任务中的表现。
  • BYOLLM 支持:支持多种 LLM 服务,包括云服务 (Anthropic Claude, OpenAI GPT, Mistral AI) 和本地模型 (Ollama, Local LLama 等),用户可灵活配置。
  • 效率提升:显著降低Token使用量,加快响应速度,降低API调用成本。
  • 性能分析:提供性能统计工具,用于监控 CoD 和 CoT 两种推理方法的效果,包括Token使用量、执行时间等。
  • 问题复杂度分析:能够分析问题的复杂度,并据此动态调整推理参数(如每步的字数限制)。
  • 多种工具集成:提供多种预置工具,如 'chain_of_draft_solve' (通用问题求解), 'math_solve' (数学问题求解), 'code_solve' (代码问题求解), 'logic_solve' (逻辑问题求解) 等。

安装步骤

本项目提供 Python 和 JavaScript/TypeScript 两种实现版本,选择其一安装即可。

Python 版本安装步骤:

  1. 克隆仓库:

    git clone https://github.com/brendancopley/mcp-chain-of-draft-prompt-tool
    cd mcp-chain-of-draft-prompt-tool
    cd src/python
  2. 安装依赖:

    pip install -r requirements.txt
  3. 配置 API 密钥: 在项目根目录下创建 '.env' 文件,并根据您使用的 LLM 服务配置 API 密钥。例如,使用 Anthropic Claude:

    ANTHROPIC_API_KEY=your_api_key_here

    更多 LLM 配置请参考仓库 README 文档。

  4. 运行服务器:

    python server.py

JavaScript/TypeScript 版本安装步骤:

  1. 克隆仓库:

    git clone https://github.com/brendancopley/mcp-chain-of-draft-prompt-tool
    cd mcp-chain-of-draft-prompt-tool
  2. 安装依赖:

    npm install
  3. 配置 API 密钥: 在项目根目录下创建 '.env' 文件,并根据您使用的 LLM 服务配置 API 密钥,方法同 Python 版本。

  4. 构建并运行服务器:

    npm run nx build
    npm start

    或使用开发模式自动重载:

    npm run dev

服务器配置

要将本 MCP 服务器集成到 MCP 客户端(例如 Claude Desktop, Dive GUI),您需要配置服务器的启动命令。以下是配置示例 (JSON 格式):

Python 版本配置示例:

{
  "mcpServers": {
    "chain-of-draft-prompt-tool": {
      "command": "python3",
      "args": ["/绝对路径/mcp-chain-of-draft-prompt-tool/src/python/server.py"],
      "env": {
        "ANTHROPIC_API_KEY": "your_api_key_here"
      }
    }
  }
}

请注意:

  • 将 '/绝对路径/mcp-chain-of-draft-prompt-tool/src/python/server.py' 替换为您 'server.py' 文件的实际绝对路径。
  • 'ANTHROPIC_API_KEY' 环境变量用于配置 API 密钥,请根据您使用的 LLM 服务进行相应配置。

JavaScript 版本配置示例:

{
  "mcpServers": {
    "chain-of-draft-prompt-tool": {
      "command": "node",
      "args": ["/绝对路径/mcp-chain-of-draft-prompt-tool/dist/index.js"],
      "env": {
        "ANTHROPIC_API_KEY": "your_api_key_here"
      }
    }
  }
}

请注意:

  • 将 '/绝对路径/mcp-chain-of-draft-prompt-tool/dist/index.js' 替换为您 'index.js' 文件的实际绝对路径。
  • 'ANTHROPIC_API_KEY' 环境变量用于配置 API 密钥,请根据您使用的 LLM 服务进行相应配置。

基本使用方法

  1. 启动 MCP 服务器 (按照上述安装步骤运行)。
  2. 配置 MCP 客户端 (例如 Claude Desktop 或 Dive GUI),添加本 MCP 服务器配置 (使用上述 JSON 示例)。
  3. 在 MCP 客户端中使用工具:在客户端中,您可以像调用普通工具一样调用本服务器提供的工具,例如 'chain_of_draft_solve', 'math_solve' 等。工具的具体参数请参考仓库 README 文档或工具的描述信息。

例如,在 Claude Desktop 中,您可以输入类似如下指令来调用 'math_solve' 工具:

@chain-of-draft-prompt-tool math_solve problem="123 + 456 等于多少?"

单文件可执行程序 (SEA)

JavaScript 版本支持构建单文件可执行程序 (SEA),方便分发和运行,无需安装 Node.js 环境。具体构建和使用方法请参考仓库 README 文档中 "Single Executable Applications (SEA)" 章节。

信息

分类

AI与计算