项目简介
本项目是一个 MCP (Model Context Protocol) 服务器,旨在利用 OpenAI API 为 LLM 客户端提供聊天记录总结功能。它实现了 MCP 协议,并提供了工具 (Tools) 和 Prompt 模板 (Prompts),使得 MCP 客户端能够方便地调用服务器端的功能来总结会话内容。
主要功能点
- 聊天总结: 使用 OpenAI API 对提供的聊天记录进行总结。
- 工具 (Tools):
- 'get_chat_summary': 接收聊天消息数组,返回聊天内容的总结。可以选择是否包含原始消息。
- 'process_with_summary': 接收聊天消息数组和用户查询,先总结聊天记录,然后结合查询生成回复。
- Prompt 模板 (Prompts):
- 'summarize-chat': 提供一个用于总结聊天记录的 Prompt 模板,引导 LLM 进行会话总结。
- 标准 MCP 服务器: 实现了 MCP 协议,可以通过 MCP 客户端进行连接和调用。
- Stdio 传输: 使用 Stdio 作为默认的传输协议,方便本地部署和测试。
安装步骤
-
克隆仓库
git clone https://github.com/DawitSishu/MCP cd MCP -
安装依赖 确保已安装 Node.js 18 或更高版本。
npm install -
构建项目
npm run build -
设置 OpenAI API 密钥 你需要拥有 OpenAI API 密钥,并将其设置为环境变量 'OPENAI_API_KEY'。
- macOS/Linux:
export OPENAI_API_KEY=你的_OpenAI_API_密钥 - Windows:
set OPENAI_API_KEY=你的_OpenAI_API_密钥
- macOS/Linux:
服务器配置
MCP 客户端需要以下配置信息来连接到此服务器。请将 '<Your OpenAI API Key>' 替换为你的实际 OpenAI API 密钥。
{ "server name": "ChatSummary", // 服务器名称,用于在客户端标识 "command": "node", // 启动服务器的命令 "args": ["dist/index.js"], // 启动命令的参数,指向服务器入口文件 "env": { "OPENAI_API_KEY": "<Your OpenAI API Key>" // OpenAI API 密钥,服务器端需要使用 } }
基本使用方法
-
启动服务器 在项目根目录下运行:
npm start服务器将通过 Stdio 监听 MCP 客户端的请求。
-
配置 MCP 客户端 使用 MCP 客户端(例如 MCP Inspector 或 Claude.app),根据上述 “服务器配置” 中的信息配置连接。
-
调用工具或 Prompt 客户端连接成功后,即可调用服务器提供的 'get_chat_summary' 和 'process_with_summary' 工具,或使用 'summarize-chat' Prompt 模板,实现聊天记录总结功能。 例如,调用 'get_chat_summary' 工具时,需要提供包含 'role' 和 'content' 属性的消息数组作为参数。
信息
分类
AI与计算