使用说明
项目简介
本项目 'mcp-anthropic' 是一个基于 Model Context Protocol (MCP) 的服务器实现,旨在为大型语言模型 (LLM) 客户端提供Prompt工程相关的工具。它集成了Anthropic的实验性Prompt工程API,允许开发者通过标准化的MCP接口,便捷地进行Prompt的生成、改进和模板化操作。
主要功能点
- Prompt生成 (generate_prompt): 根据任务描述和目标模型,自动生成适用于特定Anthropic模型的Prompt。
- Prompt改进 (improve_prompt): 接收用户对现有Prompt的反馈,利用Anthropic API优化Prompt,提升其性能。
- Prompt模板化 (templatize_prompt): 将具体的Prompt示例转换为可复用的Prompt模板,方便快速构建和调整Prompt。
安装步骤
- 克隆仓库 (如果尚未克隆):
git clone https://github.com/mystique920/anthropic-prompt-mcp - 进入项目目录:
cd anthropic-prompt-mcp - 安装依赖:
npm install - 配置 Anthropic API 密钥:
- 在项目根目录下创建 '.env' 文件。
- 在 '.env' 文件中添加你的 Anthropic API 密钥:
ANTHROPIC_KEY=your_anthropic_api_key_here - 确保 '.env' 文件已添加到 '.gitignore' 中,避免泄露密钥。
服务器配置
MCP客户端需要以下配置信息来连接此MCP服务器:
{ "serverName": "mcp-anthropic", // 服务器名称,用于客户端识别 "command": "npm", // 启动服务器的命令 "args": ["start"] // 启动命令的参数,这里表示运行 'npm start' 脚本 }
配置说明:
- 'serverName': 客户端可以自定义服务器名称,方便管理多个MCP服务器连接。
- 'command': 指定运行服务器的命令。由于项目使用 npm 管理,并且 'package.json' 中配置了 'start' 脚本,因此使用 'npm' 命令。
- 'args': 命令的参数。'["start"]' 表示执行 'npm start' 命令。这个命令会先构建 TypeScript 代码,然后启动服务器。
基本使用方法
-
启动服务器: 在项目根目录下运行:
npm start服务器启动后,会监听 MCP 连接。你将在控制台看到服务器启动成功的提示,以及已注册的工具列表。
-
使用 MCP 客户端连接服务器: 配置你的 MCP 客户端,使用上面提供的服务器配置信息连接到 'mcp-anthropic' 服务器。
-
调用工具: 客户端连接成功后,可以通过 JSON-RPC 协议调用服务器提供的工具,例如:
- 调用 'generate_prompt' 工具,需要提供 'task' (任务描述) 和 'target_model' (目标模型) 作为参数。
- 调用 'improve_prompt' 工具,需要提供 'messages' (对话消息历史), 'feedback' (改进反馈) 和 'target_model' (目标模型) 作为参数。
- 调用 'templatize_prompt' 工具,需要提供 'messages' (Prompt 示例) 作为参数。
具体的请求格式和参数定义,请参考仓库 'README.md' 中 "Tools Documentation" 部分的描述和 JSON Schema。服务器会返回 JSON-RPC 响应,包含工具执行的结果。
信息
分类
AI与计算