这是一个使用 Python 构建的最小化 Model Context Protocol (MCP) 服务器实现,旨在提供一个快速启动 MCP 服务器的模板。它展示了 MCP 服务器的核心能力:托管资源、注册工具和定义 Prompt 模板。

主要功能点

  • 打招呼工具 (Hello Tool): 提供一个简单的工具,可以根据名称返回一个包含可配置问候语的字符串。问候语从环境变量 'MCP_GREETING' 读取。
  • Markdown 资源 (Markdown Resource): 托管并提供一个静态的 Markdown 文件(位于 'resources/example.md')作为资源,供 LLM 客户端访问和使用。
  • Prompt 示例 (Prompt): 包含一个基础的 Prompt 模板示例,展示如何定义可定制的 LLM 交互 Prompt。
  • 环境配置支持: 部分配置(如问候语)支持通过环境变量设置。

安装步骤

  1. 确保您已安装 Python。

  2. 克隆或下载本项目代码。

  3. 在项目根目录下,使用 pip 安装所需的依赖:

    pip install .

服务器配置(供 MCP 客户端使用)

MCP 服务器通常由兼容的 MCP 客户端(例如某些 IDE 扩展)启动和管理。客户端需要知道如何找到并运行您的 MCP 服务器。以下是客户端可能需要的关键配置信息及其说明:

  • 服务器名称 (server name): 用于客户端界面显示和内部识别,本项目名称为 "MCP Python Starter"。
  • 启动命令 (command): 运行服务器的可执行文件或脚本。对于本项目,启动命令是 'python server.py'。
  • 命令参数 (args): 传递给启动命令的参数,用于指定服务器的传输协议等。对于本项目,推荐使用标准 I/O 协议,参数为 'stdio'。

结合以上信息,客户端通常会配置一个服务器条目,包含 'name', 'command', 'args' 等字段,以便能够正确启动并连接到该 MCP 服务器。

基本使用方法

安装并配置完成后,您可以使用兼容的 MCP 客户端(如支持 MCP 协议的 VS Code 扩展)连接到此服务器。客户端将能够:

  1. 发现服务器提供的能力(即已注册的工具、资源和 Prompt)。
  2. 请求读取 'example://md' 资源的内容。
  3. 调用名为 'say_hello' 的工具,并传递所需的参数(如一个名字)。
  4. 利用 'greeting_prompt' Prompt 模板与 LLM 进行交互。

服务器会通过标准 I/O ('stdio') 与客户端进行 JSON-RPC 通信,接收请求并返回响应。

信息

分类

AI与计算