LLM Council MCP Server

使用说明(Markdown 格式)如下,便于快速理解与上手部署。

  • 项目简介

    • 这是一个基于 MCP(Model Context Protocol)的后端服务器实现,负责向 LLM 客户端提供标准化的上下文信息与能力,包括资源管理、工具注册与执行、以及 Prompt 模板渲染等核心功能,便于构建可扩展、可安全对接的 LLM 应用场景。
  • 主要功能点

    • 资源与数据管理:托管并提供资源和数据访问能力(资源/模型信息等)。
    • 工具注册与执行:注册可供 LLM 调用的外部工具,并通过标准接口执行。
    • Prompt 模板定义与渲染:提供可定制的 Prompt 模板,支持多种交互模式与渲染策略。
    • JSON-RPC 通信:服务器通过 JSON-RPC 与客户端通信,处理请求并返回结构化响应。
    • 会话与能力声明:管理会话、能力声明和元数据,支持多传输协议(如 Stdio、SSE、WebSocket)。
    • 安全与可扩展性:内置网关/路由、权限、审计、以及可扩展的插件能力(如网关、Triaging、Not Diamond 等集成)。
    • MCP 客户端示例:通过 llm-council 提供的 MCP 客户端可以读取资源、执行工具、获取 Prompts,并实现跨模型的协作工作流。
  • 安装步骤

    • 基本依赖
      • 需要 Python 3.11+ 环境。
      • 通过 PyPI 安装 llm-council-core,并带 MCP 支持的安装选项:
        • pip install "llm-council-core[mcp]"
    • 运行服务器
      • 直接使用内置命令 llm-council 启动 MCP 服务器(这是服务器端的入口命令,客户端将通过该服务器接入 MCP 网络)。
    • 运行后端时,可结合你的部署平台选择传输协议(Stdio、SSE、WebSocket 等),默认传输通常为 Stdio。
  • 服务器配置(MCP 客户端需要的配置信息,示例为 JSON 格式)

    • server_name: llm-council-mcp
    • command: llm-council
    • args: ["--transport", "stdio"] // 启动时的传输模式参数,表示使用标准输入/输出(MCP 客户端最常用的初始接入方式)
    • 说明
      • server_name:用于在 MCP 客户端的注册表中标识该 MCP 服务器实例。
      • command:服务器启动命令(本仓库以 llm-council 作为入口)。
      • args:启动参数列表,决定运行时的传输协议和行为。默认通常为 stdio,亦可配置为 SSE 或 WebSocket(具体实现会暴露相应的参数开关)。
  • 基本使用方法

    • 项目简介
      • 该服务器提供 MCP 兼容的后端能力,便于 LLM 客户端通过标准协议进行资源访问、工具调用与 Prompt 渲染,形成可控的对话上下文服务。
    • 主要使用场景
      • 通过 MCP 客户端与服务器建立连接后,LLM 客户端可以读取资源、调用工具、获取并渲染 Prompts、并通过 JSON-RPC 获取回传数据。
    • 服务器与客户端交互要点
      • 客户端通过服务器暴露的 JSON-RPC 接口发送请求(读取资源、执行工具、获取 Prompts 等)。
      • 服务器返回标准的 JSON-RPC 响应,包含结果、错误信息或通知事件。
    • 部署注意事项
      • 确保运行环境具备对外 API、数据库或本地资源的访问权限(若资源由 MCP 服务器提供)。
      • 配置传输方式以匹配你的部署场景(本地开发使用 stdio,生产环境可考虑 SSE/WebSocket)。
      • 安全性:在生产环境中应结合认证/鉴权策略,避免未授权访问资源或工具。

服务器信息