使用说明
项目简介
Just Prompt 是一个基于 Model Context Protocol (MCP) 构建的服务器,旨在为 LLM 客户端提供一个统一、标准化的接口,以便访问和使用多种大型语言模型 (LLM) 提供商的服务。它充当 LLM 应用的后端,简化了与不同 LLM 平台的集成和交互。
主要功能点
- 统一的 LLM 接口: 支持 OpenAI, Anthropic, Google Gemini, Groq, DeepSeek, Ollama 等多种 LLM 提供商,通过统一的 API 访问不同平台的模型。
- Prompt 工具: 提供多种 Prompt 工具,包括发送文本 Prompt、从文件读取 Prompt 以及将 Prompt 发送到多个模型并保存响应。
- 模型和提供商管理: 支持列出可用的 LLM 提供商和模型,方便用户了解和选择合适的模型。
- 灵活的模型配置: 允许设置默认模型列表,并在请求中指定特定模型,支持模型名称自动纠正。
- 响应输出管理: 支持将 LLM 响应保存到文件,方便结果的记录和分析。
安装步骤
-
克隆仓库:
git clone https://github.com/disler/just-prompt.git cd just-prompt -
安装依赖:
uv sync确保已安装 'uv' 包管理器。如果未安装,请先安装 'pip install uv'。
-
配置环境变量: 复制 '.env.sample' 文件并重命名为 '.env',然后根据需要编辑 '.env' 文件,填入各个 LLM 提供商的 API 密钥。
cp .env.sample .env vim .env例如:
OPENAI_API_KEY=your_openai_api_key_here ANTHROPIC_API_KEY=your_anthropic_api_key_here GEMINI_API_KEY=your_gemini_api_key_here GROQ_API_KEY=your_groq_api_key_here DEEPSEEK_API_KEY=your_deepseek_api_key_here OLLAMA_HOST=http://localhost:11434对于不需要的提供商,可以留空对应的 API 密钥,Just Prompt 服务器会自动检测可用的提供商。
服务器配置
以下 JSON 配置信息可用于 MCP 客户端(如 Claude Code)连接到 Just Prompt 服务器。
{ "serverName": "just-prompt", "command": "uv", "args": [ "--directory", ".", "run", "just-prompt", "--default-models", "anthropic:claude-3-7-sonnet-20250219,openai:gpt-4o-mini" ] }
参数说明:
- serverName: MCP 服务器的名称,可以自定义。
- command: 启动 MCP 服务器的命令,这里使用 'uv run' 来运行 'just-prompt' 脚本。
- args: 传递给启动命令的参数列表:
- '--directory .': 指定工作目录为当前目录。
- 'run just-prompt': 运行 'just-prompt' Python 脚本。
- '--default-models': 可选参数,设置默认使用的模型列表,以逗号分隔,格式为 'provider:model'。例如,'anthropic:claude-3-7-sonnet-20250219,openai:gpt-4o-mini'。 如果客户端请求中没有指定模型,则会使用默认模型。列表中的第一个模型还会用于模型名称自动纠正功能。
注意:
- 确保 MCP 客户端能够找到 'uv' 命令。如果 'uv' 不在系统 PATH 中,需要使用 'uv' 的完整路径。
- '--default-models' 参数可以根据需要自定义,选择常用的模型,方便快速开始使用。
基本使用方法
启动 Just Prompt 服务器后,MCP 客户端可以通过 JSON-RPC 协议调用服务器提供的工具。以下是一些基本工具的使用示例:
-
prompt: 发送 Prompt 到 LLM 模型。
- 参数 'text': Prompt 文本内容。
- 参数 'models_prefixed_by_provider' (可选): 指定要使用的模型列表,例如 '["openai:gpt-4o-mini", "anthropic:claude-3-5-haiku"]'。 如果不提供此参数,则使用服务器配置的默认模型。
-
prompt_from_file: 从文件中读取 Prompt 并发送到 LLM 模型。
- 参数 'file': Prompt 文件路径。
- 参数 'models_prefixed_by_provider' (可选): 指定要使用的模型列表,用法同 'prompt' 工具。
-
prompt_from_file_to_file: 从文件中读取 Prompt,发送到 LLM 模型,并将响应保存到 Markdown 文件。
- 参数 'file': Prompt 文件路径。
- 参数 'models_prefixed_by_provider' (可选): 指定要使用的模型列表,用法同 'prompt' 工具。
- 参数 'output_dir' (可选): 指定响应文件保存的目录,默认为当前目录 "."。
-
list_providers: 列出所有可用的 LLM 提供商。
- 无参数。
-
list_models: 列出指定 LLM 提供商的所有可用模型。
- 参数 'provider': 提供商名称,例如 '"openai"' 或 '"o"'。
示例命令 (假设使用 Claude Code 客户端):
列出所有可用提供商:
claude mcp call just-prompt list_providers
使用默认模型发送 Prompt:
claude mcp call just-prompt prompt '{"text": "你好,请介绍一下你自己"}'
指定模型发送 Prompt:
claude mcp call just-prompt prompt '{"text": "你好,请介绍一下你自己", "models_prefixed_by_provider": ["openai:gpt-4o-mini"]}'
更多工具和参数的详细信息,请参考仓库的 README.md 文件。
信息
分类
AI与计算