Tollama MCP 服务器

使用说明

  • 项目简介
    • 该仓库实现了基于 Model Context Protocol (MCP) 的后端服务器,旨在向 LLM 客户端以标准化方式提供上下文信息与功能。核心能力包括资源 (Resources) 的托管与访问、工具 (Tools) 的注册与执行,以及 Prompt 模板的定义与渲染,所有通过 JSON-RPC 协议进行通信。服务器端负责会话管理、能力声明,并可通过多种传输协议(如 Stdio、SSE、WebSocket)向客户端提供安全、可扩展的上下文服务框架。
  • 主要功能点
    • 资源管理:托管、查询与访问各类资源与数据,支持多种格式和 ingestion 模式。
    • 工具注册与执行:定义可被 LLM 调用的外部功能,支持不同工具的输入校验、调用与结果返回。
    • 提示模板与对话渲染:定义与渲染针对 LLM 的提示模板,支持定制化的交互模式。
    • JSON-RPC 通信:统一的请求/响应封装,兼容微服务风格的远程调用。
    • 会话与能力声明:服务器端维护会话状态、能力矩阵与运行时信息。
    • 多传输协议:原生支持 stdio、SSE、WebSocket 等传输方式,便于嵌入式或云端部署。
  • 安装步骤
    • 安装 MCP 支持的可选依赖(推荐):通过 pip 安装项目开发分支的 MCP 组件,例如运行时需要的包及工具支持。
    • 启动 MCP 服务器:执行 tollama-mcp(仓库中已有入口点标识为 tollama-mcp),或使用 Python 模块直接启动,命令会在默认端口 11435 上监听并对外提供 MCP 服务。
    • 连接客户端:MCP 客户端(如 Claude Code、LangChain 集成等)可通过 MCP 服务器的 JSON-RPC 接口进行资源读取、工具调用和提示渲染等操作。
  • 服务器配置(MCP 客户端使用的连接信息,格式为 JSON;客户端本身不需要你来修改)
    • 服务器名称:tollama
    • 启动命令(用于客户端注册时的定位与启动):tollama-mcp
    • 启动参数(示例,客户端可据此建立连接): { "server": "tollama", "command": "tollama-mcp", "args": { "base_url": "http://127.0.0.1:11435" } }
    • 注释说明:上述配置用于 MCP 客户端在局域网/本地环境发现并连接 Tollama 提供的 MCP 服务。具体参数可根据部署环境(如远程代理、认证、超时等)调整,客户端通常只需要知道 server、command、以及用于连接的 base_url 即可。
  • 基本使用方法
    • 启动 MCP 服务后,客户端通过 JSON-RPC 向 Tollama MCP 服务器请求“读取资源”、“执行工具”、“获取 Prompt 模板”等能力。
    • 客户端可按 MCP 规范构造请求(包含方法名、唯一 id、参数 payload),服务器返回标准的 JSON-RPC 响应或错误信息。
    • 服务器端负责管理会话、能力声明,以及在需要时对请求进行鉴权、限速与日志记录,确保上下文服务对 LLM 客户端可用且可扩展。
    • 如需查看可用工具、资源、Prompts 等信息,参考服务器暴露的元信息与文档接口,结合客户端进行工具注册与调用。

服务器信息