Hegelion-MCP 服务器实现

使用说明(Markdown 格式)

  • 项目简介

    • Hegelion 提供面向 LLM 客户端的上下文服务能力,围绕 Dialectical Prompting 与 Autocoding 工作流设计实现。核心通过 MCP 服务端暴露工具集,LLM 客户端可通过 JSON-RPC 调用获取 Prompt、执行工具、管理会话等。
  • 主要功能点

    • Dialectical Prompting:生成 Thesis/Antithesis/Synthesis 的各类提示,支持多种输出风格(json、sections、synthesis_only、conversational、bullet_points)。
    • Autocoding(自编码工作流): coach-玩家循环,包含初始化、逐步 Prompt、状态推进与持久化,支持单轮提示与完整工作流。
    • MCP 服务端:基于 mcp 库实现的服务器端,提供 tools 列表、工具调用、以及对多种工具的路由处理。
    • 输出与校验:内置输出模式、JSON 验证、阶段性校验与错误提示,确保与 MCP 的结构化输出兼容。
    • 会话与持久化:AutocodingState 提供会话状态管理、序列化/反序列化、保存与加载等能力。
    • 本地与 CLI 支持:提供 CLI-执行、CLI 驱动的 LLM 命令执行、以及本地自测用例。
  • 安装步骤

    • 通过 Python 包管理器安装(示例:pip install hegelion)。
    • 运行 MCP 服务端(示例入口:python -m hegelion.mcp.server),或者利用已有的 MCP 集成工具进行对接。
  • 服务器配置(MCP 客户端需要的最小信息)

    • MCP 客户端需要配置服务器启动命令及参数,示例配置如下(以 JSON 形式表达,便于客户端解析): { "mcpServers": { "hegelion": { "name": "hegelion", "command": "python", "args": ["-m", "hegelion.mcp.server"] } // 如有需要可追加其它服务器配置 } } 注释:以上配置用于明确服务器的启动命令与参数,MCP 客户端据此启动并与服务器建立 JSON-RPC 通道。实际使用中可结合宿主环境调整工作目录、环境变量等选项。
  • 基本使用方法

    • 启动服务端后,客户端通过 MCP 协议发送工具调用(如 dialectical_workflow、dialectical_single_shot、thesis_prompt、antithesis_prompt、coach_prompt、autocoding_init、autocoding_workflow、player_prompt、coach_prompt、autocoding_advance、autocoding_save/load 等),获取结构化输出与 prompts。
    • 使用示例:通过工具列表获取可用工具;调用具体工具获取提示或执行结果;在 autocoding 流程中,按 coach/player 的阶段输出进行状态管理与持久化。
  • 服务器运行要点

    • 支持多种输出格式与校验模式,确保与客户端的 JSON-RPC 交互一致。
    • 对话、工具、以及自动化工作流有完整的路由和错误处理,确保在无效输入或阶段错序时给出明确的错误信息。
    • 提供自测试路径(self-test)与示例用例,便于快速验收与回归测试。
  • 维护与扩展

    • 已实现的模块化设计便于扩展新的工具、提示模板或校验策略。
    • 可以在现有 MCP 路由之上增加新的传输协议适配(如 SSE、WebSocket)。

服务器信息