• 使用背景与定位
    • 该仓库包含多套基于 MCP 的服务端实现,核心目标是为大模型/LLM 客户端提供统一的上下文信息、资源管理、工具注册与执行、以及提示模板渲染的后端服务。服务器通过 JSON-RPC 与客户端通信,支持多种传输方式(如 stdio、WebSocket、SSE 等),并实现了技能管理、执行、以及 Bedrock Nova Lite 的集成能力。
  • 主要功能点
    • MCP 服务端核心接口实现:实现 ListTools 和 CallTool 等请求处理,注册一组 Tools,接收工具调用并返回结构化结果。
    • Skill(技能)管理与执行:提供技能列表、详情、创建、更新、Fork、生成等能力,并可执行单个或多个技能。
    • Bedrock Nova Lite 集成:通过 Bedrock 运行时接口实现技能生成、以及对外部模型调用。
    • 数据模型与存储抽象:为技能、技能版本、执行日志、API Key 等提供数据库模型(SQLAlchemy),并提供本地与云端存储后端(本地、S3、GCS 等)的抽象实现。
    • REST API 与仪表盘辅助:提供基于 FastAPI/Flask 的 REST 接口与仪表盘页面(/dashboard、/skills、/health 等)。
    • 客户端连接配置示例:提供 MCP 客户端配置示例(JSON),说明如何通过启动命令与参数将服务器接入到 MCP 客户端。
  • 安装与运行
    • 运行方式示例(需自行根据环境安装依赖并配置环境变量):
      • 使用 Python 运行 MCP 服务器模块:python -m src.server
      • 通过标准输入/输出连接(stdio)进行 MCP 通信。
    • 常见依赖与环境变量(示例方向性说明,不在文中给出具体代码):
      • 安装依赖:pip install -e .
      • Bedrock Nova Lite 相关配置(区域、模型 ID 等环境变量)
      • SKILLS_DIR 指定技能存放目录
  • 服务器配置(MCP 客户端需要的最小信息) 说明:下面的配置示例为 JSON 格式,展示如何将 MCP 服务器设置为可启动并被 MCP 客户端连接。实际使用时,请将 serverName、command、args 和环境变量替换为你本地的实际值。 { "mcpServers": { "bl1nk-skill-mcp-server": { "command": "python", "args": ["-m", "src.server"], "env": { "AWS_REGION": "us-east-1", "SKILLS_DIR": "/path/to/skills", "BEDROCK_MODEL_ID": "us.amazon.nova-lite-v1:0" } } } }
  • 基本使用方法
    • 启动服务器后,客户端可以通过 MCP 协议发送 JSON-RPC 请求,例如列出工具、调用工具、获取技能信息等。
    • 使用技能管理的典型工作流:
      • 获取技能列表:通过 MCP 客户端请求工具列表,服务器返回可用技能清单及元数据。
      • 查询技能信息:请求获取某个技能的详细 metadata、入口点、输入输出定义等。
      • 运行技能:按需传入技能名称与参数,服务器执行对应脚本/入口并返回结果。
      • 多技能执行:通过 run_multi_skill 调用多个技能,顺序执行并聚合结果。
    • Bedrock Nova Lite 的使用需确保 Bedrock Runtime 已配置并可访问,服务器将调用模型以实现技能生成或推理。

信息

分类

AI与计算