← 返回首页

"语言模型"标签的搜索结果

找到 17 个结果

QuickMCP: OpenAPI/Discovery转MCP服务器

用.NET轻松构建和运行基于OpenAPI/Google Discovery的MCP服务器。

数字孪生MCP服务器

一个基于MCP协议的数字孪生后端服务,具备模拟个性、管理记忆和自主进化的能力。

MCP Gmail服务器

MCP Gmail服务器是一个基于模型上下文协议(MCP)的后端服务,为大型语言模型提供访问和操作Gmail邮箱的能力。

K8s MCP Server

K8s MCP Server 是一个安全桥梁,连接语言模型和Kubernetes CLI工具,让语言模型能够安全地执行和管理Kubernetes集群操作。

Mistral MCP 适配器

一个连接 Mistral AI 大模型与 MCP 客户端的适配器,支持 Claude Desktop 等 MCP 应用,提供对话功能。

Todoist任务管理MCP服务器

一个连接语言模型与Todoist的MCP服务器,支持通过自然语言进行任务管理,如创建、查询、更新和完成任务。

LeanTool

LeanTool MCP服务器是一个基于Model Context Protocol的应用后端,为LLM客户端提供Lean代码检查工具,支持通过MCP协议进行交互,辅助LLM进行Lean定理证明和代码生成。

mcp servers

该项目实现了针对OpenAI模型的MCP服务器,允许LLM客户端通过标准的MCP协议调用OpenAI的Chat Completion API进行文本生成。

mcp server openai

通过MCP协议连接OpenAI,为LLM客户端提供访问OpenAI模型能力。

perplexity mcp server

Perplexity MCP Server 是一个Node.js实现的MCP服务器,它允许 Claude 等 MCP 客户端通过工具调用 Perplexity AI 的强大语言模型,实现聊天对话和快速提问等功能。

Deepseek

将Deepseek模型接入Claude Desktop的MCP服务器,支持通过工具调用Deepseek的语言模型能力。

DeepSeek R1 Reasoning

DeepSeek MCP Server通过集成DeepSeek R1的推理能力,为Claude等LLM客户端提供高级推理工具,增强其复杂问题解决能力。

OpenAI

OpenAI MCP Server是一个轻量级服务器,允许您通过MCP协议从Claude等LLM客户端直接查询OpenAI模型,实现工具调用。

DeepSeek MCP Server

DeepSeek MCP Server 是一个基于 Model Context Protocol 的服务器,它将 DeepSeek API 封装成 MCP 接口,使得 Claude Desktop 等 MCP 客户端可以便捷地使用 DeepSeek 的强大语言模型,并支持模型选择、参数配置和多轮对话等功能。

Gemini Server

基于MCP协议的Gemini服务器,连接Claude Desktop与Gemini AI模型,提供文本生成服务。

Home Assistant Server

Home Assistant MCP Server是一个桥接Home Assistant智能家居平台和大型语言模型的应用后端,通过Model Context Protocol协议,实现对智能设备和自动化场景的自然语言控制。

OpenAI MCP Server

OpenAI MCP Server 是一个 MCP 服务器,允许 Claude 等客户端通过 ask-openai 工具调用 OpenAI 的 o3-mini 和 gpt-4o-mini 模型进行问答。