使用说明(Markdown 格式,帮助理解与部署)

  • 项目简介

    • 该仓库实现了一个基于 MCP 的服务器端,将资源管理、工具暴露和提示模板等能力通过 MCP 协议对外提供给 LLM 客户端,便于在大模型对话中获取与执行外部功能、访问数据与渲染 Prompt。
  • 主要功能点

    • MCP 服务器实现:使用 FastMCP 框架暴露工具端点,支持与外部 MCP 客户端的 JSON-RPC/SSE/StdIO 形式通信(当前示例使用 StdIO)。
    • 工具暴露与发现:提供对外暴露的工具集合,例如存储、线程、Runs、助手、Cron、内存分析等,便于代理在对话中调用。
    • 与 LangGraph 集成:通过 lgctl 客户端封装的 API,与后端资源、存储、查询等组件进行交互。
    • 会话与权限框架以 MCP 模式进行能力声明,便于多模型/多客户端协同工作。
    • 服务器启动与运行方式:在命令行通过 python -m lgctl.mcp_server 启动 MCP 服务,或通过入口点 lgctl-mcp 启动。
  • 安装步骤

    • 确认已安装 Python 3.10+。
    • 安装必要的依赖(包括 mcp 件件,若要运行测试请安装 lgctl[mcp])。不要直接贴出安装命令,按项目要求执行即可。
    • 配置环境变量:确保 LANGSMITH_DEPLOYMENT_URL 或 LANGGRAPH_URL 指向 LangGraph 服务入口,以及相关 OpenAI/Anthropic 等 API 钥匙。
    • 运行 MCP 服务器:
      • 直接运行:python -m lgctl.mcp_server
      • 也可以通过其他方式启动入口点 lgctl-mcp(若有安装脚本提供)
  • 服务器配置(面向 MCP 客户端的连接配置,示例 JSON) { "server_name": "lgctl-mcp", "command": "python", "args": ["-m", "lgctl.mcp_server"], "transport": "stdio", "description": "MCP 服务器,暴露 lgctl 的资源、工具与操作能力给 LLM 客户端", "working_directory": "<项目根目录>", "notes": "使用 StdIO 传输。MCP 客户端将通过该命令启动服务器并进行通信。确保 LangGraph 服务地址可用,并且所需 API 密钥已配置。" }

  • 基本使用方法

    • 启动后,MCP 客户端可以通过标准 MCP 调用来请求“读取资源、执行工具、获取 Prompt”等能力。
    • 代理在对话中调用工具时,MCP 服务器将执行相应的 Store/Threads/Runs/Assistants 等命令并返回结构化 JSON 响应。
    • 如需测试 MCP 服务,请确保安装了 mcp 依赖并可正常启动,然后在客户端发起请求并处理响应。
  • 重要注意

    • 本实现包含实际生产级的工具暴露逻辑,欢迎在正式环境中结合 LangGraph 的鉴权、审计等中间件进行进一步加强。
    • 若要扩展更多工具,遵循现有的 @mcp.tool() 装饰器风格进行实现即可。

信息

分类

AI与计算