使用说明

项目简介

本项目 'mcp-anthropic' 是一个基于 Model Context Protocol (MCP) 的服务器实现,旨在为大型语言模型 (LLM) 客户端提供Prompt工程相关的工具。它集成了Anthropic的实验性Prompt工程API,允许开发者通过标准化的MCP接口,便捷地进行Prompt的生成、改进和模板化操作。

主要功能点

  • Prompt生成 (generate_prompt): 根据任务描述和目标模型,自动生成适用于特定Anthropic模型的Prompt。
  • Prompt改进 (improve_prompt): 接收用户对现有Prompt的反馈,利用Anthropic API优化Prompt,提升其性能。
  • Prompt模板化 (templatize_prompt): 将具体的Prompt示例转换为可复用的Prompt模板,方便快速构建和调整Prompt。

安装步骤

  1. 克隆仓库 (如果尚未克隆):
    git clone https://github.com/mystique920/anthropic-prompt-mcp
  2. 进入项目目录:
    cd anthropic-prompt-mcp
  3. 安装依赖:
    npm install
  4. 配置 Anthropic API 密钥:
    • 在项目根目录下创建 '.env' 文件。
    • 在 '.env' 文件中添加你的 Anthropic API 密钥:
      ANTHROPIC_KEY=your_anthropic_api_key_here
    • 确保 '.env' 文件已添加到 '.gitignore' 中,避免泄露密钥。

服务器配置

MCP客户端需要以下配置信息来连接此MCP服务器:

{
  "serverName": "mcp-anthropic",  // 服务器名称,用于客户端识别
  "command": "npm",             // 启动服务器的命令
  "args": ["start"]              // 启动命令的参数,这里表示运行 'npm start' 脚本
}

配置说明:

  • 'serverName': 客户端可以自定义服务器名称,方便管理多个MCP服务器连接。
  • 'command': 指定运行服务器的命令。由于项目使用 npm 管理,并且 'package.json' 中配置了 'start' 脚本,因此使用 'npm' 命令。
  • 'args': 命令的参数。'["start"]' 表示执行 'npm start' 命令。这个命令会先构建 TypeScript 代码,然后启动服务器。

基本使用方法

  1. 启动服务器: 在项目根目录下运行:

    npm start

    服务器启动后,会监听 MCP 连接。你将在控制台看到服务器启动成功的提示,以及已注册的工具列表。

  2. 使用 MCP 客户端连接服务器: 配置你的 MCP 客户端,使用上面提供的服务器配置信息连接到 'mcp-anthropic' 服务器。

  3. 调用工具: 客户端连接成功后,可以通过 JSON-RPC 协议调用服务器提供的工具,例如:

    • 调用 'generate_prompt' 工具,需要提供 'task' (任务描述) 和 'target_model' (目标模型) 作为参数。
    • 调用 'improve_prompt' 工具,需要提供 'messages' (对话消息历史), 'feedback' (改进反馈) 和 'target_model' (目标模型) 作为参数。
    • 调用 'templatize_prompt' 工具,需要提供 'messages' (Prompt 示例) 作为参数。

    具体的请求格式和参数定义,请参考仓库 'README.md' 中 "Tools Documentation" 部分的描述和 JSON Schema。服务器会返回 JSON-RPC 响应,包含工具执行的结果。

信息

分类

AI与计算