使用说明

  • 项目简介 该项目实现一个用于 LLM 的后端服务,遵循 Model Context Protocol (MCP),核心职责包括托管和管理 Resources(资源)、注册并执行 Tools(工具)、以及定义和渲染 Prompt 模板,提供可扩展的上下文服务框架。服务器与客户端通过 JSON-RPC 进行通信,支持多种传输方式(如标准输入/输出、Server-Sent Events、WebSocket 等)。
  • 主要功能点
    • 资源管理:提供 bible、strongs、commentary、info 等资源的读取、查询与列表能力,便于 LLM 客户端获取上下文数据。
    • 工具注册与调用:暴露经文查询、原文分析、Strong's 字典、注释查询、信息查询等工具,LLM 可以通过工具名称和参数来调用外部功能。
    • Prompts 支持:内置并渲染多类 Prompt 模板,覆盖入门到进阶的研经场景,便于与 LLM 进行专业化交互。
    • MCP 协议实现:使用 MCP 的标准格式处理请求与响应,基于 JSON-RPC 实现请求/通知的交互模式。
    • 会话与能力声明:维护会话状态、能力声明,以及对不同传输协议的支持。
    • 多传输协议支持:提供基于 Stdio、SSE、WebSocket 等的传输实现,适配不同部署场景。
  • 安装步骤
    1. 克隆仓库并进入项目目录。
    2. 建立并激活虚拟环境。
    3. 安装开发依赖并将包安装为可本地开发使用:运行命令执行安装。
    4. 启动 MCP 服务器:直接执行 Python 模块入口,启动 MCP 服务。
    5. 如需快速验证,可使用示例客户端向服务器发送 MCP 请求以测试资源、工具和提示的交互流程。
  • 服务器配置(MCP 客户端需要的启动信息) 说明:以下为用于 MCP 客户端连接服务器的配置示例描述,真实环境请将占位符替换为实际路径与命令。配置以 JSON 形式呈现,包含服务器名称、启动命令及参数等信息,帮助客户端与 MCP 服务器建立会话。 { "server": { "name": "fhl-bible-mcp", "command": "<path-to-python-interpreter>", // 如 /path/to/venv/bin/python(Linux/macOS)或 C:\path\to\venv\Scripts\python.exe(Windows) "args": ["-m", "fhl_bible_mcp"] // MCP 服务器入口模块 } // 说明:客户端通常不需要额外配置,以上信息用于客户端在本地启动并连接 MCP 服务器 }
  • 基本使用方法
    • 启动方式:在可访问的环境中执行服务器入口,使服务器进入监听状态,准备接收来自 LLM 的 MCP 请求。
    • 连接方式:LLM 客户端通过 MCP 提供的标准 JSON-RPC 格式向服务器发送请求,完成资源读取、工具调用和提示获取等操作。
    • 常见操作模式:LLM 通过调用资源/工具/提示相关接口,获取结构化的 JSON 响应,进一步将数据融入对话上下文,提升研经等任务的精准性。
  • 其他要点
    • 服务器实现了会话管理与能力声明,能够根据需要切换传输协议(如标准输出、SSE、WebSocket 等)。
    • 代码库中还提供了用于对接 FHL Bible API 的工具集、资源路由、Prompts 管理等模块,便于扩展与维护。

信息

分类

AI与计算