基于 Model Context Protocol (MCP) 的轻量级后端服务器,提供对 LLM 客户端的上下文服务(资源、工具、提示等),通过 JSON-RPC 进行通信,支持以标准化方式读取资源、注册并执行工具、渲染 Prompt 模板,核心实现包含服务器端的请求/响应处理、会话管理与多传输协议支持(以 stdio 为核心的实现,具备行分隔及 Content-Length framing 方式)。
该项目实现了针对OpenAI模型的MCP服务器,允许LLM客户端通过标准的MCP协议调用OpenAI的Chat Completion API进行文本生成。
一个基于Go语言实现的MCP服务器,通过OpenAI的DALL-E API提供图像生成工具,使LLM能够根据文本提示生成图像。
Ollama MCP Server是一个桥接Ollama和MCP协议的工具,允许MCP客户端通过标准化的方式调用本地Ollama LLM模型,进行模型管理、运行和OpenAI兼容的聊天补全。
Deepseek Thinker MCP Server是一个基于MCP协议的服务,通过Deepseek模型为LLM客户端提供推理能力,支持OpenAI API和Ollama本地部署,并提供获取Deepseek模型思考过程的工具。