Cognithor MCP 服务器

使用说明(简明要点,方便快速落地)

  • 项目简介 Cognithor 的 MCP 服务器提供一个标准化的后端服务,用来向本地或离线的 LLM 客户端提供资源数据、可调用的工具接口,以及可定制的提示模板。通过 MCP 协议,LLM 可以请求资源、执行工具、获取并渲染提示,以实现可扩展、可控的上下文服务。

  • 主要功能点

    • 资源管控:托管与访问可读写的资源集合,便于上下文构建时检索与管理。
    • 工具注册与执行:注册多种工具,LLM 客户端可通过 MCP 调用执行外部功能。
    • 提示模板管理:定义与渲染 Prompt 模板,支持自定义的 LLM 交互模式。
    • JSON-RPC 通信:通过标准的 JSON-RPC 进行请求/响应,便于前后端解耦与跨语言实现。
    • 会话与能力声明:服务器端维护会话、声明服务器能力,便于客户端动态适配。
    • 多传输协议支持:标准化传输层设计,未来可扩展到 Stdio、SSE、WebSocket 等通道。
    • 安全与扩展性:内置会话隔离、能力控制与扩展点,便于在本地环境中安全地使用 LLM。
  • 安装步骤(简化版指南)

    • 克隆仓库并安装依赖(示例性步骤,需按实际环境执行):
      • 安装 Python 版本要求(建议 Python 3.12 及以上)。
      • 安装基础依赖并获取 MCP 相关组件。
    • 启动 MCP 服务器:
      • 运行命令:python -m jarvis.mcp.server
      • 或使用部署脚本/容器化方式启动,对应配置文件放在 ~/.jarvis/mcp/config.yaml。
    • 启动后端服务后,MCP 客户端即可通过配置的服务器启动命令与参数连接。
  • 服务器配置(给 MCP 客户端的配置信息,使用 JSON 格式,描述服务器启动命令及参数) 注意:MCP 客户端仅需读取以下信息来连接与启动服务器,不需要实际执行服务器端代码。示例配置如下(字段含义在后述注释中说明): { "server_name": "Cognithor-MCP-Server", "command": "python3", "args": ["-m", "jarvis.mcp.server", "--config", "~/.jarvis/mcp/config.yaml"] } 说明:

    • server_name:MCP 服务器的唯一标识名称,便于在多服务器场景中区分。
    • command:启动服务器所使用的命令解释,一般为 Python 解释器。
    • args:启动命令的参数列表,包含模块名、配置文件路径等必要信息,确保客户端能够正确启动并连接服务器。
  • 基本使用方法(简易流程)

    1. 在本地配置 MCP 服务器(如上 JSON 配置),确保服务器配置文件路径正确且可访问。
    2. 启动 MCP 服务器进程,确保服务器输出正常且监听端口或提供正确的通讯端点。
    3. 在 LLM 客户端中引用该 MCP 服务器,使用 MCP 协议发起对“资源、工具、提示”的请求,获取 JSON-RPC 形式的响应。
    4. 根据需要继续扩展资源、工具与提示,以适应具体的 LLM 工作流与安全策略。
  • 重要说明

    • 该仓库实现了 MCP 服务器端应用与相关工具,结合 Cognithor 的整个生态,能够对接本地化的 LLM 客户端,提供上下文与能力服务。
    • 客户端侧配置仅用于连接与启动,实际的资源/工具/ prompts/安全策略的管理在服务器端实现中已经完整覆盖。

服务器信息