← 返回首页

"模型服务"标签的搜索结果

找到 5 个结果

Ollama 模型上下文协议 (MCP) 服务器

将本地 Ollama 模型与外部功能通过 MCP 协议暴露给大型语言模型 (LLM) 客户端。

API to cURL 转换 MCP 服务器

一个基于 MCP 协议构建的服务器,用于将 API 文档自动转换为 cURL 命令,支持模型训练和持续优化。

OpenRouter多模态MCP服务器

基于OpenRouter.ai的MCP多模态服务器,提供文本聊天和图像分析能力,支持多种模型选择和优化。

Llama Stack Server

Llama Stack Server是一个应用后端,旨在通过标准化的方式为LLM客户端提供上下文信息和功能,支持资源管理、工具调用和Prompt模板定制。

Ollama

一个MCP服务器,作为Claude Desktop客户端与Ollama LLM服务之间的桥梁,提供模型问答工具。