项目简介

本项目是一个 MCP (Model Context Protocol) 服务器,旨在利用 OpenAI API 为 LLM 客户端提供聊天记录总结功能。它实现了 MCP 协议,并提供了工具 (Tools) 和 Prompt 模板 (Prompts),使得 MCP 客户端能够方便地调用服务器端的功能来总结会话内容。

主要功能点

  • 聊天总结: 使用 OpenAI API 对提供的聊天记录进行总结。
  • 工具 (Tools):
    • 'get_chat_summary': 接收聊天消息数组,返回聊天内容的总结。可以选择是否包含原始消息。
    • 'process_with_summary': 接收聊天消息数组和用户查询,先总结聊天记录,然后结合查询生成回复。
  • Prompt 模板 (Prompts):
    • 'summarize-chat': 提供一个用于总结聊天记录的 Prompt 模板,引导 LLM 进行会话总结。
  • 标准 MCP 服务器: 实现了 MCP 协议,可以通过 MCP 客户端进行连接和调用。
  • Stdio 传输: 使用 Stdio 作为默认的传输协议,方便本地部署和测试。

安装步骤

  1. 克隆仓库

    git clone https://github.com/DawitSishu/MCP
    cd MCP
  2. 安装依赖 确保已安装 Node.js 18 或更高版本。

    npm install
  3. 构建项目

    npm run build
  4. 设置 OpenAI API 密钥 你需要拥有 OpenAI API 密钥,并将其设置为环境变量 'OPENAI_API_KEY'。

    • macOS/Linux:
      export OPENAI_API_KEY=你的_OpenAI_API_密钥
    • Windows:
      set OPENAI_API_KEY=你的_OpenAI_API_密钥

服务器配置

MCP 客户端需要以下配置信息来连接到此服务器。请将 '<Your OpenAI API Key>' 替换为你的实际 OpenAI API 密钥。

{
  "server name": "ChatSummary",  // 服务器名称,用于在客户端标识
  "command": "node",           // 启动服务器的命令
  "args": ["dist/index.js"],   // 启动命令的参数,指向服务器入口文件
  "env": {
    "OPENAI_API_KEY": "<Your OpenAI API Key>" // OpenAI API 密钥,服务器端需要使用
  }
}

基本使用方法

  1. 启动服务器 在项目根目录下运行:

    npm start

    服务器将通过 Stdio 监听 MCP 客户端的请求。

  2. 配置 MCP 客户端 使用 MCP 客户端(例如 MCP Inspector 或 Claude.app),根据上述 “服务器配置” 中的信息配置连接。

  3. 调用工具或 Prompt 客户端连接成功后,即可调用服务器提供的 'get_chat_summary' 和 'process_with_summary' 工具,或使用 'summarize-chat' Prompt 模板,实现聊天记录总结功能。 例如,调用 'get_chat_summary' 工具时,需要提供包含 'role' 和 'content' 属性的消息数组作为参数。

信息

分类

AI与计算