返回首页

"安全会话" 标签

2 个结果

标签搜索结果

AI与计算

Konkin MCP 服务端

一个基于 Model Context Protocol (MCP) 的服务端实现,作为后端向大模型/LLM 客户端提供资源、工具调用和提示模板等上下文信息,通过 JSON-RPC 形式进行通信,并支持 SSE、WebSocket 等传输方式及会话管理、能力声明等安全可扩展的上下文服务框架。

网页与API

voitta-rag MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,嵌入在 voitta-rag 的 FastAPI 应用中,提供资源托管、工具执行、以及用于 LLM 的上下文/推理相关能力。服务器通过 MCP 规范暴露工具集、资源访问和元数据管理,LLM 客户端可通过 JSON-RPC 的方式对接并获取上下文与功能服务,且与本地向量存储、嵌入模型、以及文件系统等组件协同工作。