← 返回首页

"Ollama"标签的搜索结果

找到 18 个结果

Final - Ollama MCP服务

"Final"是一个AI代理基础设施,其MCP模块提供基于Ollama本地大模型的标准化上下文服务,支持模型管理、代码智能辅助和多轮对话。

Ollama 模型上下文协议 (MCP) 服务器

将本地 Ollama 模型与外部功能通过 MCP 协议暴露给大型语言模型 (LLM) 客户端。

Hatchling

一个交互式CLI聊天应用,集成Ollama本地大模型,内置并使用Model Context Protocol (MCP) 服务器提供工具能力。

Assistente de Busca de Veículos com MCP

Aplicação que utiliza protocolo MCP para integrar um LLM (Ollama) na busca e apresentação de dados de veículos de um banco SQLite.

Pipulate工作流框架

Pipulate是一个本地优先的桌面应用框架,为AI工作流提供上下文服务,可作为轻量级MCP服务器使用。

Ollama Desktop API

Ollama Desktop API 为桌面应用提供 AI 模型服务,集成 MCP 协议,支持工具扩展和会话管理。

Ollama MCP 服务器

Ollama MCP 服务器是一个基于 Model Context Protocol (MCP) 的服务器实现,它允许 LLM 客户端通过标准化的 JSON-RPC 协议与 Ollama 模型进行交互,提供本地模型推理能力作为工具。

Spring AI MCP摘要服务器示例

基于Spring AI框架实现的MCP服务器,提供通过工具调用的文本摘要功能。

多模型顾问 MCP 服务器

一个 MCP 服务器,通过查询多个 Ollama 模型,为用户提供来自不同 AI 模型的综合建议和多样化视角。

Blender Open MCP Server

blender-open-mcp 是一个 MCP 服务器,允许用户通过自然语言指令,利用本地AI模型(Ollama)控制 Blender 进行 3D 建模和场景操作。

Unity MCP Ollama 集成服务器

该项目实现了基于MCP协议的服务器,通过Ollama集成本地LLM,以自然语言控制Unity编辑器,实现自动化工作流程。

Ollama

一个MCP服务器,作为Claude Desktop客户端与Ollama LLM服务之间的桥梁,提供模型问答工具。

Ollama Deep Researcher

Ollama Deep Researcher MCP服务器是一个基于Model Context Protocol的应用后端,它利用本地Ollama大语言模型和网络搜索API,为AI助手提供深度研究工具,并以资源形式持久化研究结果。

Ollama

Ollama MCP Server是一个桥接Ollama和MCP协议的工具,允许MCP客户端通过标准化的方式调用本地Ollama LLM模型,进行模型管理、运行和OpenAI兼容的聊天补全。

Deepseek R1 Reasoner

Deepseek R1 Reasoner MCP Server为本地LLM客户端提供基于 Deepseek R1 模型的推理规划工具,支持通过 Ollama 运行本地模型。

Ollama

Ollama MCP Server 是一个基于 Model Context Protocol 的服务器,它桥接了 Ollama 本地大语言模型和 MCP 客户端应用,提供模型访问和管理能力。

DeepSeek Thinker

Deepseek Thinker MCP Server是一个基于MCP协议的服务,通过Deepseek模型为LLM客户端提供推理能力,支持OpenAI API和Ollama本地部署,并提供获取Deepseek模型思考过程的工具。

Ollama

MCP Ollama是一个MCP服务器,它将Ollama大语言模型的功能通过Model Context Protocol (MCP) 协议暴露出来,允许MCP客户端(如Claude Desktop)调用Ollama的模型,进行模型列表查询、模型信息查看和模型问答等操作。