返回首页

"本地推理后端" 标签

1 个结果

标签搜索结果

AI与计算

Cognithor MCP 服务器

基于 Model Context Protocol (MCP) 的本地后端实现,作为 LLM 客户端的上下文提供与能力服务中心,负责托管资源、注册并执行工具、定义与渲染提示模板,并通过 JSON-RPC 在多种传输通道上与客户端通信,支持会话、能力声明与安全沙箱机制的扩展能力。