← 返回首页

"本地模型"标签的搜索结果

找到 3 个结果

Ollama/Gemini MCP智能体及示例服务器

基于Ollama/Gemini大模型的MCP客户端应用,集成了工具调用能力,并提供了可扩展功能的示例MCP服务器。

Ollama MCP 服务器

Ollama MCP 服务器是一个基于 Model Context Protocol (MCP) 的服务器实现,它允许 LLM 客户端通过标准化的 JSON-RPC 协议与 Ollama 模型进行交互,提供本地模型推理能力作为工具。

Ollama

Ollama MCP Server 是一个基于 Model Context Protocol 的服务器,它桥接了 Ollama 本地大语言模型和 MCP 客户端应用,提供模型访问和管理能力。