基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染,以及面向 LLM 客户端的标准化上下文服务,支持通过 HTTP/SSE 和 STDIO 传输进行 JSON-RPC 通信,并具备会话管理、能力声明和跨会话持久化能力,用于实现大规模的多代理协同工作流。
基于 MCP 的后端服务器实现,提供通过 Cheat Engine 与 LLM 客户端之间的 JSON-RPC 通信,支持内存读取、工具调用以及提示模板渲染等上下文服务的本地化 MCP 服务器。