这是一个使用 Python 构建的最小化 Model Context Protocol (MCP) 服务器实现,旨在提供一个快速启动 MCP 服务器的模板。它展示了 MCP 服务器的核心能力:托管资源、注册工具和定义 Prompt 模板。
主要功能点
- 打招呼工具 (Hello Tool): 提供一个简单的工具,可以根据名称返回一个包含可配置问候语的字符串。问候语从环境变量 'MCP_GREETING' 读取。
- Markdown 资源 (Markdown Resource): 托管并提供一个静态的 Markdown 文件(位于 'resources/example.md')作为资源,供 LLM 客户端访问和使用。
- Prompt 示例 (Prompt): 包含一个基础的 Prompt 模板示例,展示如何定义可定制的 LLM 交互 Prompt。
- 环境配置支持: 部分配置(如问候语)支持通过环境变量设置。
安装步骤
-
确保您已安装 Python。
-
克隆或下载本项目代码。
-
在项目根目录下,使用 pip 安装所需的依赖:
pip install .
服务器配置(供 MCP 客户端使用)
MCP 服务器通常由兼容的 MCP 客户端(例如某些 IDE 扩展)启动和管理。客户端需要知道如何找到并运行您的 MCP 服务器。以下是客户端可能需要的关键配置信息及其说明:
- 服务器名称 (server name): 用于客户端界面显示和内部识别,本项目名称为 "MCP Python Starter"。
- 启动命令 (command): 运行服务器的可执行文件或脚本。对于本项目,启动命令是 'python server.py'。
- 命令参数 (args): 传递给启动命令的参数,用于指定服务器的传输协议等。对于本项目,推荐使用标准 I/O 协议,参数为 'stdio'。
结合以上信息,客户端通常会配置一个服务器条目,包含 'name', 'command', 'args' 等字段,以便能够正确启动并连接到该 MCP 服务器。
基本使用方法
安装并配置完成后,您可以使用兼容的 MCP 客户端(如支持 MCP 协议的 VS Code 扩展)连接到此服务器。客户端将能够:
- 发现服务器提供的能力(即已注册的工具、资源和 Prompt)。
- 请求读取 'example://md' 资源的内容。
- 调用名为 'say_hello' 的工具,并传递所需的参数(如一个名字)。
- 利用 'greeting_prompt' Prompt 模板与 LLM 进行交互。
服务器会通过标准 I/O ('stdio') 与客户端进行 JSON-RPC 通信,接收请求并返回响应。
信息
分类
AI与计算