使用说明(Markdown)

  • 项目简介
    • ModelCypher 提供一个基于 MCP(Model Context Protocol)的服务器实现,面向 LLM 客户端,统一管理资源、工具和提示模板,支持跨进程/跨语言的上下文服务协作。
  • 主要功能点
    • 资源托管与数据访问:通过资源接口读取/写入可用的 Resources,以支持上下文数据的共享与检索。
    • 工具注册与调用:暴露工具集合,LLM 客户端可以通过 MCP 调用外部功能,返回结构化的 JSON 响应。
    • 提示模板与渲染:定义和渲染 Prompt 模板,支持不同交互模式的自定义输出。
    • 会话与能力声明:服务器端维护会话状态、能力声明,并对接入方进行能力自检与协商。
    • 多传输协议支持:MCP 服务器通过 JSON-RPC 与客户端通信,支持多种传输通道(如 Stdio、SSE、WebSocket 等)。
    • 安全与扩展性:提供可扩展的后端架构,便于集成到代理式 IDE、工作流自动化等场景。
  • 安装步骤
      1. 安装 Python 3.11+ 环境
      1. 使用 Poetry 安装依赖
      1. 安装后端组件与 MCP 运行入口
  • 服务器配置
    • MCP 客户端需要提供一个配置 JSON,描述要连接的 MCP 服务器信息,包含服务器名称、命令与参数等。示例配置(以说明文本形式呈现,非代码块):
    • {
    • "mcpServers": {
    • "modelcypher": {
    •   "command": "poetry",
    •   "args": ["run", "modelcypher-mcp"],
    •   "cwd": "/absolute/path/to/ModelCypher"
    • }
    • }
    • }
    • 注释:
      • serverName:用于标识 MCP 服务的名称,这里为 "modelcypher"。
      • command / args:启动 MCP 服务所需的命令与参数,客户端通过这些信息启动服务器进程。
      • cwd:工作目录,指向 ModelCypher 项目根路径。
    • MCP 服务器本身会暴露若干工具和资源接口,客户端通过 JSON-RPC 调用对应的工具(如 mc_geometry_interference_predict 等),服务器返回结构化的 JSON-RPC 响应。
  • 基本使用方法
    • 启动服务器:在模型侧或部署环境中执行相应启动命令,确保工作目录与依赖就绪。
    • 客户端接入:在 MCP 客户端配置中指定服务器名称、启动命令与工作目录,建立 JSON-RPC 调用通道。
    • 调用流程:客户端通过 callTool、readResource、getPrompt 等 JSON-RPC 请求,服务器返回标准化 JSON-RPC 响应,并可通过 nextActions 指引后续工作。
    • 运行与测试:仓库内有完整的 MCP 集成测试,可在与硬件条件允许的环境中执行测试来验证服务器行为。
  • 基本注意事项
    • 请确保服务器与客户端的版本兼容,并遵循 MCP 的请求/响应格式约定。
    • 在生产环境中应结合日志、鉴权与网络安全策略进行部署。

信息

分类

AI与计算