返回首页

"本地LLM后端" 标签

1 个结果

标签搜索结果

AI与计算

MetriLLM MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行,以及提示模板渲染能力,通过 JSON-RPC 与 LLM 客户端进行交互,支持多种传输方式(如 StdIO/SSE/WebSocket)以在本地模型对话中提供统一的上下文服务。