将本地 Ollama API 以工具形式暴露给 Cursor、Claude Desktop 等 LLM 客户端的后端服务,提供模型管理、对话、生成与嵌入等能力的 MCP 服务端实现。
基于 Model Context Protocol (MCP) 的后端服务器,提供资源、工具与提示模板的统一访问接口,整合 Ollama、Playwright、GitHub API 等工具集,面向大型语言模型客户端提供可扩展的上下文与能力服务。
将本地 Ollama API 以工具形式暴露给 Cursor、Claude Desktop 等 LLM 客户端的后端服务,提供模型管理、对话、生成与嵌入等能力的 MCP 服务端实现。
基于 Model Context Protocol (MCP) 的后端服务器,提供资源、工具与提示模板的统一访问接口,整合 Ollama、Playwright、GitHub API 等工具集,面向大型语言模型客户端提供可扩展的上下文与能力服务。