项目简介
这是一个基于Model Context Protocol (MCP) 的服务器,旨在帮助用户分析AWS技术博客文章的内容,并判定其技术难度级别(从100到400)。它通过提供一个可供大型语言模型 (LLM) 客户端调用的标准化工具来实现这一功能。
主要功能点
- AWS博客等级分析工具: 提供一个名为 'analyze_aws_blog' 的工具。
- 结构化输出: LLM客户端调用工具并提供博客文本后,服务器会返回一个包含预设Prompt的响应,指导LLM按照指定的格式(等级和理由)输出分析结果。
- 标准MCP实现: 遵循MCP协议,支持通过STDIO等传输方式与兼容的LLM客户端通信。
安装步骤
有两种推荐的安装方式:
- 使用 'uvx'(推荐): 如果您已经安装了 'uv' 工具,无需额外安装此项目,可以直接通过 'uvx' 命令运行。
uvx mcp-aws-level-checker - 使用 'pip' 安装: 通过Python的包管理器pip进行安装。
安装完成后,可以通过Python模块方式运行:pip install mcp-aws-level-checkerpython -m mcp_aws_level_checker
服务器配置
此MCP服务器是为兼容MCP的LLM客户端(如Claude.app, VS Code等)设计的后端服务。您需要在LLM客户端的设置中配置此服务器,以便客户端知道如何启动并与之通信。
配置通常需要提供服务器的名称、启动服务器所需的命令 (command) 以及该命令所需的参数 (args)。
- 如果您使用 'uvx' 方法运行:
- 命令 (command) 应设置为 'uvx'
- 参数 (args) 应设置为 '["mcp-aws-level-checker"]'
- 如果您使用 'pip' 方法安装并运行:
- 命令 (command) 应设置为 'python'
- 参数 (args) 应设置为 '["-m", "mcp_aws_level_checker"]'
请将这些信息填入您的LLM客户端的MCP服务器配置界面中,通常您可以给服务器指定一个易于识别的名称,例如 'aws-level-checker'。
基本使用方法
配置完成后,您可以在支持MCP的LLM客户端中直接与大型语言模型交互。当您向LLM提供一篇AWS技术博客的文本,并询问其技术等级时,LLM客户端会识别到其需要利用配置好的MCP服务器提供的 'analyze_aws_blog' 工具。LLM客户端将博客文本发送给此MCP服务器,服务器返回指导LLM进行分析的Prompt,LLM根据此Prompt分析文本并给出判定结果(等级和理由)。最终结果将由LLM呈现给您。
信息
分类
AI与计算