找到 5 个结果
将本地 Ollama 模型与外部功能通过 MCP 协议暴露给大型语言模型 (LLM) 客户端。
一个基于 MCP 协议构建的服务器,用于将 API 文档自动转换为 cURL 命令,支持模型训练和持续优化。
基于OpenRouter.ai的MCP多模态服务器,提供文本聊天和图像分析能力,支持多种模型选择和优化。
Llama Stack Server是一个应用后端,旨在通过标准化的方式为LLM客户端提供上下文信息和功能,支持资源管理、工具调用和Prompt模板定制。
一个MCP服务器,作为Claude Desktop客户端与Ollama LLM服务之间的桥梁,提供模型问答工具。