← 返回首页

"OpenAI API"标签的搜索结果

找到 11 个结果

openai-responses-mcp

基于 Model Context Protocol (MCP) 的轻量级后端服务器,提供对 LLM 客户端的上下文服务(资源、工具、提示等),通过 JSON-RPC 进行通信,支持以标准化方式读取资源、注册并执行工具、渲染 Prompt 模板,核心实现包含服务器端的请求/响应处理、会话管理与多传输协议支持(以 stdio 为核心的实现,具备行分隔及 Content-Length framing 方式)。

OpenAI 文件搜索 MCP 服务器

通过 MCP 协议提供 OpenAI 文件搜索能力的后端服务,将检索结果结构化返回给 LLM 客户端。

MCP聊天适配器

通过MCP协议,为LLM客户端提供连接OpenAI或兼容API的聊天能力和会话管理。

MCP OpenAI图像生成服务器

基于MCP协议,封装OpenAI图像生成与编辑API,提供文生图和图生图工具。

Super Agent Party

Super Agent Party 是一个将大型模型转化为智能代理的应用后端,支持知识库访问、互联网连接、MCP 服务调用、深度思考和深入研究,并通过 OpenAI API 或 Web/桌面应用进行访问。

DALL-E图像生成MCP服务器

基于MCP协议的DALL-E图像生成服务器,支持文生图、图像编辑和变体生成功能。

mcp servers

该项目实现了针对OpenAI模型的MCP服务器,允许LLM客户端通过标准的MCP协议调用OpenAI的Chat Completion API进行文本生成。

dalle image server

基于DALL·E 2的MCP服务器,通过工具接口向LLM客户端提供文本生成图像的功能。

DALL E Image Generation

一个基于Go语言实现的MCP服务器,通过OpenAI的DALL-E API提供图像生成工具,使LLM能够根据文本提示生成图像。

Ollama

Ollama MCP Server是一个桥接Ollama和MCP协议的工具,允许MCP客户端通过标准化的方式调用本地Ollama LLM模型,进行模型管理、运行和OpenAI兼容的聊天补全。

DeepSeek Thinker

Deepseek Thinker MCP Server是一个基于MCP协议的服务,通过Deepseek模型为LLM客户端提供推理能力,支持OpenAI API和Ollama本地部署,并提供获取Deepseek模型思考过程的工具。