项目简介

这是一个基于Model Context Protocol (MCP) 的服务器,旨在帮助用户分析AWS技术博客文章的内容,并判定其技术难度级别(从100到400)。它通过提供一个可供大型语言模型 (LLM) 客户端调用的标准化工具来实现这一功能。

主要功能点

  • AWS博客等级分析工具: 提供一个名为 'analyze_aws_blog' 的工具。
  • 结构化输出: LLM客户端调用工具并提供博客文本后,服务器会返回一个包含预设Prompt的响应,指导LLM按照指定的格式(等级和理由)输出分析结果。
  • 标准MCP实现: 遵循MCP协议,支持通过STDIO等传输方式与兼容的LLM客户端通信。

安装步骤

有两种推荐的安装方式:

  1. 使用 'uvx'(推荐): 如果您已经安装了 'uv' 工具,无需额外安装此项目,可以直接通过 'uvx' 命令运行。
    uvx mcp-aws-level-checker
  2. 使用 'pip' 安装: 通过Python的包管理器pip进行安装。
    pip install mcp-aws-level-checker
    安装完成后,可以通过Python模块方式运行:
    python -m mcp_aws_level_checker

服务器配置

此MCP服务器是为兼容MCP的LLM客户端(如Claude.app, VS Code等)设计的后端服务。您需要在LLM客户端的设置中配置此服务器,以便客户端知道如何启动并与之通信。

配置通常需要提供服务器的名称、启动服务器所需的命令 (command) 以及该命令所需的参数 (args)。

  • 如果您使用 'uvx' 方法运行:
    • 命令 (command) 应设置为 'uvx'
    • 参数 (args) 应设置为 '["mcp-aws-level-checker"]'
  • 如果您使用 'pip' 方法安装并运行:
    • 命令 (command) 应设置为 'python'
    • 参数 (args) 应设置为 '["-m", "mcp_aws_level_checker"]'

请将这些信息填入您的LLM客户端的MCP服务器配置界面中,通常您可以给服务器指定一个易于识别的名称,例如 'aws-level-checker'。

基本使用方法

配置完成后,您可以在支持MCP的LLM客户端中直接与大型语言模型交互。当您向LLM提供一篇AWS技术博客的文本,并询问其技术等级时,LLM客户端会识别到其需要利用配置好的MCP服务器提供的 'analyze_aws_blog' 工具。LLM客户端将博客文本发送给此MCP服务器,服务器返回指导LLM进行分析的Prompt,LLM根据此Prompt分析文本并给出判定结果(等级和理由)。最终结果将由LLM呈现给您。

信息

分类

AI与计算