← 返回首页

"Ollama 集成"标签的搜索结果

找到 2 个结果

Ollama MCP 服务器

将本地 Ollama API 以工具形式暴露给 Cursor、Claude Desktop 等 LLM 客户端的后端服务,提供模型管理、对话、生成与嵌入等能力的 MCP 服务端实现。

Ollama MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端服务器,提供资源、工具与提示模板的统一访问接口,整合 Ollama、Playwright、GitHub API 等工具集,面向大型语言模型客户端提供可扩展的上下文与能力服务。