一个Model Context Protocol (MCP) 服务器,为LLM客户端提供集成OpenAI GPT-5大模型的能力。
将 Snowflake Cortex AI 功能(如搜索、分析、补全)通过 MCP 协议提供给 LLM 客户端。
基于FastMCP框架实现的MCP服务器,通过Redis队列异步处理Gemini API的文本生成请求,为AI Waifu应用提供上下文服务。
连接 Claude Desktop 与本地 LM Studio,让 Claude 可以使用本地大语言模型进行文本生成和对话。
该项目实现了针对OpenAI模型的MCP服务器,允许LLM客户端通过标准的MCP协议调用OpenAI的Chat Completion API进行文本生成。
一个MCP服务器,通过Pollinations.ai API提供图像和文本生成功能,允许AI模型通过MCP协议调用图像和文本生成工具,轻松集成图像和文本生成能力。
基于Model Context Protocol,此仓库提供了一个集成Google Gemini Pro模型的MCP服务器,允许LLM客户端调用Gemini Pro的文本生成能力。
KoboldCPP-MCP-Server 是一个 MCP 服务器,它将 KoboldAI 的强大功能(如文本生成、聊天和图像生成)通过 Model Context Protocol (MCP) 协议暴露给客户端应用。
Deepseek R1 MCP Server是一个基于Model Context Protocol的服务器,它为LLM客户端提供Deepseek R1和V3模型的文本生成能力,支持通过Claude Desktop等MCP客户端调用。
Qwen Max MCP Server 是一个基于 Model Context Protocol 的服务器实现,专注于为 Claude Desktop 等 MCP 客户端提供对阿里云 Qwen Max 系列大语言模型的文本生成能力,支持多种Qwen商业模型选择和参数配置。