返回首页

"链接LLM与数据" 标签

1 个结果

标签搜索结果

AI与计算

UNCASE MCP 服务器

基于 Model Context Protocol 的 UNCASE 后端实现,使用 FastMCP 将 seeds、tools、prompts 等上下文资源以 JSON-RPC 风格暴露给 LLM 客户端,并支持工具执行、模板渲染等功能的 MCP 服务器实现。