项目简介

这是一个基于 Model Context Protocol (MCP) 的服务器实现,旨在为使用大型语言模型 (LLM) 的应用提供关于 Amazon VPC Lattice 及其相关生态系统的上下文信息和功能工具。它允许 LLM 客户端通过标准协议访问预定义的知识源信息。

主要功能点

该服务器主要通过提供以下工具来增强 LLM 的能力:

  • 列出可用知识源: 可以获取服务器当前支持的所有知识源列表,包括它们的名称和对应的 URL。这有助于 LLM 了解可以获取哪些领域的上下文信息。
  • 获取知识源的提示模板: 对于指定的知识源,可以获取一系列建议用于 LLM 交互的提示模板示例。这些模板可以帮助 LLM 更好地构造针对该知识源的查询或对话。

当前支持的知识源包括 AWS 文档、用于 VPC Lattice 的 AWS Gateway API 控制器 GitHub 仓库以及 Kubernetes Gateway API 文档。

安装步骤

  1. 克隆代码库: 将服务器的代码下载到您的本地机器上。
    git clone https://github.com/rlymbur/amazon-vpc-lattice-mcp-server.git
    cd amazon-vpc-lattice-mcp-server
  2. 安装依赖: 使用 npm 包管理器安装运行服务器所需的依赖库。
    npm install
  3. 构建服务器: 编译服务器的源代码。
    npm run build
    这会在项目的 'build' 目录下生成可执行的 JavaScript 文件(通常是 'index.js')。

服务器配置

为了让您的 MCP 客户端(例如某些 IDE 插件或应用)能够找到并使用此服务器,您需要在客户端的配置中注册它。这通常涉及编辑一个配置文件(如 'cline_mcp_settings.json'),添加一个新的服务器条目。

配置条目通常是一个 JSON 对象,包含以下关键信息:

  • 一个唯一的服务器名称(例如 'amazon-vpc-lattice-mcp'),用于在客户端中引用此服务器。
  • 'command': 指定用于启动服务器进程的可执行程序,例如如果您使用 Node.js 运行,这里就是 'node'。
  • 'args': 一个字符串数组,指定传递给 'command' 的参数,其中通常包含服务器构建输出的主文件路径,例如 '/path/to/your/amazon-vpc-lattice-mcp-server/build/index.js'(请确保将路径替换为您实际的项目路径)。
  • 其他可选设置,如 'disabled'(是否启用)或 'env'(环境变量)。

具体的配置格式和位置请参考您使用的 MCP 客户端的官方文档。

基本使用方法

服务器配置并启动后,您就可以在支持 MCP 的 LLM 客户端中通过调用其提供的工具来使用了。客户端通常会提供一种方式让 LLM 或用户指定要调用的 MCP 服务器和工具。

  • 列出知识源: 调用名为 'list_sources' 的工具。客户端会向服务器发送相应的请求,服务器返回可用知识源的列表。
  • 获取提示模板: 调用名为 'get_source_prompts' 的工具,并提供一个参数,该参数的名称通常是 'source_name',值为您感兴趣的知识源的名称(例如 "AWS Documentation")。服务器会返回该知识源相关的提示模板列表。

LLM 客户端会处理这些工具的调用和结果,并将信息融入到与用户的交互中。

信息

分类

开发者工具