← 返回首页

"本地模型"标签的搜索结果

找到 5 个结果

Stacklok Toolhive MCP Server

基于 MCP(Model Context Protocol)协议的后端服务,提供文档检索、嵌入向量存储访问,以及工具调用接口,供大语言模型客户端通过统一的 JSON-RPC 方式获取上下文信息与外部功能。该实现包含网页/GitHub 文档源的同步、解析、分块、本地嵌入、向量检索以及查询工具(如 query_docs、get_chunk)等核心能力,具备运行的服务器代码和完整的工作流。

XiYan MCP 服务器(xiyan_mcp_server)

基于 XiYanSQL 的 MCP 服务器实现,向 LLM 客户端以标准 JSON-RPC 提供数据库资源、工具调用和 Prompts 渲染等能力,支持 GreptimeDB、MySQL、PostgreSQL、SQLite 等多数据源,以及本地模型与向量检索集成,具备会话管理、能力声明和多传输协议支持。

Ollama/Gemini MCP智能体及示例服务器

基于Ollama/Gemini大模型的MCP客户端应用,集成了工具调用能力,并提供了可扩展功能的示例MCP服务器。

Ollama MCP 服务器

Ollama MCP 服务器是一个基于 Model Context Protocol (MCP) 的服务器实现,它允许 LLM 客户端通过标准化的 JSON-RPC 协议与 Ollama 模型进行交互,提供本地模型推理能力作为工具。

Ollama

Ollama MCP Server 是一个基于 Model Context Protocol 的服务器,它桥接了 Ollama 本地大语言模型和 MCP 客户端应用,提供模型访问和管理能力。