返回首页

"语义上下文" 标签

3 个结果

标签搜索结果

AI与计算

lude-mcp

基于 Model Context Protocol (MCP) 的自托管后端服务器,提供资源读取、工具执行、提示模板渲染等功能,并通过标准的 JSON-RPC(stdio)与客户端通信,附带本地内存浏览器界面。

AI与计算

CodeIntel MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,向大型语言模型客户端提供资源访问、工具调用和可渲染的提示/上下文模板,支持多种传输方式(stdio、Streamable HTTP),通过 JSON-RPC 与客户端通信并实现会话管理和能力声明。

AI与计算

mcp-trino

基于 Model Context Protocol (MCP) 的后端服务器实现,结合 Trino 数据仓库,为大语言模型客户端提供标准化的上下文资源、可调用工具与可渲染的提示模板,通过 JSON-RPC 服务化地暴露查询、描述、浏览等能力,并支持多集群与语义元数据扩展。