← 返回首页

"MCP"标签的搜索结果

找到 140 个结果

Symfony MCP 服务器

基于 Symfony 框架,用于快速构建 Model Context Protocol (MCP) 服务器的强大工具包。

MCP计算器服务器

提供基础数学计算工具,并通过Model Context Protocol (MCP)以SSE模式暴露服务,供LLM客户端调用。

AgentiPy

基于Python的Solana/Base区块链AI Agent工具包,内置MCP服务器,为LLM提供标准化的链上交互能力。

Email Client MCP Server

一个MCP服务器,为LLM应用提供邮件管理功能,包括配置管理、邮件发送、关键词及语义搜索等。

MCP工具投毒演示服务器

该仓库演示了一个存在工具投毒漏洞的MCP服务器,用于教育和安全研究目的,展示了如何通过恶意工具进行远程代码执行和数据泄露。

Matomo MCP Server

Matomo MCP Server作为AI Agent和Matomo分析平台的桥梁,将Matomo Reporting API功能以MCP工具形式提供,便于LLM客户端访问Matomo数据。

Genkit Google Maps MCP 示例服务器

此项目演示了如何使用 Genkit 和 MCP 协议,通过 Google Maps API 为 LLM 提供地理位置信息查询等工具。

OpenAPI to MCP Server

此仓库旨在将任何OpenAPI规范转换为可用的MCP服务器,方便LLM客户端通过MCP协议访问和利用OpenAPI定义的API功能。

Remote MCP Server (Cloudflare)

基于Cloudflare Workers构建的远程MCP服务器,提供资源、工具和Prompt模板管理,并通过OAuth进行安全认证。

Solon-AI MCP Server

Solon-AI MCP Server是基于Java实现的Model Context Protocol服务器框架,为AI应用提供标准化的工具、资源和Prompt服务接口。

lua-resty-mcp

基于OpenResty和Lua的MCP服务器SDK,用于构建和管理LLM应用的上下文服务后端。

Orval MCP Server Generator

Orval generates MCP server-side code from OpenAPI specifications, providing standardized context services for LLM applications.

Sylph Lab MCP 服务器组件

Sylph Lab MCP Monorepo 仓库提供了多个基于 Model Context Protocol 的独立服务器实现,专注于资源和工具的标准化接入与管理。

Swarms API MCP服务器

Swarms API 仓库提供的 MCP 服务器实现,能够以标准化的方式为 LLM 客户端提供多智能体系统服务,支持资源管理、工具调用和 Prompt 模板定义等功能。

Speelka Agent

Speelka Agent 是一个通用的 LLM Agent,基于 Model Context Protocol (MCP) 构建,能够利用来自其他 MCP 服务器的工具,为 LLM 客户端提供上下文服务。

Spring AI MCP服务器示例

基于Spring AI框架实现的MCP服务器示例,提供元素周期表查询、文件系统访问和地图路线规划等工具服务。

CodeBox-AI MCP服务器

CodeBox-AI MCP服务器是一个安全的Python代码执行服务,通过Model Context Protocol (MCP) 协议与LLM应用进行标准化交互,提供代码执行能力。

Klavis AI

Klavis AI 是一个开源基础设施项目,旨在简化 Model Context Protocol (MCP) 服务器的构建和使用,为 LLM 应用提供便捷的上下文服务。

PlanetScale CLI MCP Server

PlanetScale CLI 内置的 MCP 服务器,为 AI 工具提供数据库上下文访问能力。

Sapling MCP Server

为 Sapling SCM 提供 Model Context Protocol (MCP) 服务器,允许 LLM 客户端通过 MCP 协议与 Sapling SCM 进行交互,执行版本控制操作。

Astro MCP Server 集成

astro-mcp 是一个为 Astro 项目设计的 MCP 服务器集成,提供了一系列工具用于获取项目配置、路由、集成等信息,方便 LLM 客户端理解和操作 Astro 项目。

OpenAPI MCP Server

通过Model Context Protocol (MCP) 将任何OpenAPI规范转换为AI助手可用的工具,实现API的无缝集成。

Trino MCP Server

基于MCP协议的Trino数据库服务器,为LLM应用提供SQL查询和数据探索能力。

Dify 工具 MCP 兼容插件

将 Dify 平台的工具转换为 MCP 兼容的 API 服务,使 Dify 工具可以被 MCP 客户端调用。

URL-Based MCP服务器演示

一个基于URL配置的演示性MCP服务器,无需编写代码即可构建和实验MCP协议及安全性。

MCP Server Example (ai-playground)

基于ai-playground仓库的MCP服务器示例,提供加法工具,演示MCP服务器的基本功能。

MCP协议验证器

提供Model Context Protocol (MCP) 服务器的参考实现和一致性测试套件,支持STDIO和HTTP传输协议。

Git-Iris MCP 服务器

Git-Iris MCP 服务器为AI工具提供代码提交信息生成、代码审查、变更日志和发布说明等Git工作流辅助功能。

Scaled MCP Server

基于Go语言实现的、可水平扩展的MCP服务器,为LLM应用提供资源、工具和Prompt模板管理等核心上下文服务。

MCP4Go

MCP4Go 是一个用 Go 语言实现的 MCP 服务器,它提供资源、工具和 Prompt 管理功能,简化 AI 应用的开发。

KubeBlocks Cloud MCP Server

为AI助手提供访问和管理KubeBlocks Cloud资源的标准MCP接口,实现云资源自动化管理和数据分析。

WASM MCP 运行时

这是一个使用 WebAssembly 运行 MCP 服务器的运行时,支持任何语言编写的 WASM MCP 服务,并提供跨平台、沙箱化和易于使用的 MCP 服务。

AviUtl MCP服务器

AviUtl MCP服务器是一个允许通过Model Context Protocol (MCP) 控制 AviUtl 视频编辑软件的后端服务,为LLM应用提供访问AviUtl项目信息和功能的桥梁。

Serverless MCP Server

基于AWS Lambda的轻量级MCP服务器,通过Serverless Framework快速部署,提供工具注册和执行能力,简化LLM应用上下文管理。

Kwaak

Kwaak是一个本地运行的AI自主代理平台,专注于代码库维护和自动化任务,支持通过MCP协议扩展工具能力。

CrewAI文本摘要MCP服务器

一个基于CrewAI框架构建的MCP服务器,提供文本摘要工具,支持自定义摘要长度,方便集成到LLM应用中。

Stellar智能MCP服务器演示

基于Cloudflare Workers和Model Context Protocol的演示项目,提供Stellar区块链的智能合约交互能力,作为LLM应用的上下文服务器。

MCP服务器Docker部署示例

通过Docker快速部署和运行mcpo MCP服务器,为LLM应用提供上下文服务。

Azure MCP Hub

Azure MCP Hub 提供了构建、运行和复用 Model Context Protocol (MCP) 服务器的资源和示例,帮助开发者在 Azure 上快速构建可调用真实 API 的 AI Agent。

MPT - 多模型提供器工具

MPT 是一款支持多LLM模型并行查询的工具,并可作为MCP服务器为LLM客户端提供统一接口,实现资源、工具和Prompt模板的管理。

Unity MCP Playtest Server

一个用于Unity编辑器环境的MCP服务器示例,允许LLM客户端通过工具调用与Unity编辑器进行交互,扩展编辑器功能。

WordPress MCP服务器

一个WordPress插件,实现了MCP服务器,允许LLM通过Model Context Protocol访问和操作WordPress内容及功能。

Dify DSL 工作流扩展

基于 Dify 的 DSL 工作流集合,通过 MCP 协议提供 AI 工具和资源,扩展 Dify 应用能力。

Go-MCP:模型上下文协议Go语言实现

Go-MCP 是一个 Go 语言 SDK,用于构建和交互 Model Context Protocol (MCP) 应用,支持服务端和客户端实现。

Cloudflare远程MCP服务器示例

基于Cloudflare Workers构建的远程MCP服务器示例,演示了如何使用OAuth进行身份验证并提供工具功能。

Saiku MCP服务器

Saiku MCP服务器是基于Model Context Protocol的后端实现,旨在为LLM客户端提供资源、工具和Prompt模板管理等核心上下文服务。

x64dbg 调试助手 MCP 服务器

一个轻量级的 MCP 服务器插件,为 x64dbg 调试器提供 HTTP 接口,支持 LLM 客户端远程控制和数据交互,实现 AI 辅助逆向工程。

Gendl MCP Server Wrapper

Gendl MCP Server Wrapper是一个增强的MCP服务器实现,它为Gendl框架提供了与Claude等LLM客户端交互的标准接口,支持资源管理、工具调用和Prompt模板渲染。

Ithena MCP治理SDK

为Model Context Protocol (MCP) 服务器提供身份验证、授权、审计和日志记录等治理功能的SDK,提升生产环境MCP应用的安全性和合规性。

Azure MCP服务器示例

基于Quarkus框架,提供用于管理Azure云资源的MCP服务器示例,支持资源组、存储、PostgreSQL等操作。

Supabase MCP 服务器

Supabase MCP 服务器是一个基于 Model Context Protocol 的后端实现,旨在将 Supabase 项目无缝连接到各类 AI 助手,扩展 LLM 应用能力。

Stata-MCP

通过MCP协议,使LLM能够调用Stata进行统计分析和数据处理。

OpenAPI转MCP服务器转换器

将 OpenAPI 规范转换为 MCP 服务器,使 LLM 客户端能以 MCP 协议调用 OpenAPI 定义的 API 作为工具。

StepWise MCP服务器

StepWise MCP服务器是一个基于.NET框架构建的、代码优先、事件驱动的工作流引擎,能够将工作流转化为可被LLM客户端调用的MCP服务。

基于SSE的MCP图书搜索服务器

该项目是一个基于Model Context Protocol (MCP) 和服务器发送事件 (SSE) 构建的Python服务器,提供通过古腾堡计划API搜索图书的功能,并可通过MCP客户端进行访问和调用。

Fastify Telegram Bot with MCP Services

基于Fastify框架构建的Telegram机器人,通过集成MCP服务扩展LLM能力,实现智能对话和工具调用。

Vite Plugin Vue MCP

Vite Plugin Vue MCP 插件为 Vue.js 应用提供 MCP 服务器功能,帮助 LLM 更好地理解和交互 Vue 应用上下文。

Kubernetes MCP Server

基于MCP协议实现的Kubernetes服务器,允许LLM客户端通过工具安全地管理和操作Kubernetes集群。

Qwen-Agent MCP 服务器

Qwen-Agent 框架的 MCP 服务器组件,提供资源管理、工具注册和 Prompt 模板渲染等 MCP 协议核心功能,为 LLM 应用提供上下文服务。

Nautobot MCP应用

将MCP服务器集成到Nautobot平台,为AI应用提供网络自动化和管理工具。

MCP Server Dart插件

一个Dart语言开发的MCP服务器插件,用于构建支持资源、工具和Prompt的LLM应用后端,提供Stdio和SSE等多种传输协议。

Cloudflare Remote MCP Server

基于Cloudflare Workers实现的远程MCP服务器,提供资源管理、工具注册和Prompt模板渲染等MCP核心功能,并支持OAuth登录。

Kubectl MCP Server

Kubectl MCP Server 是一个基于 Model Context Protocol 的 Kubernetes 上下文服务器,允许 AI 助手通过自然语言安全地操作和监控 Kubernetes 集群。

MCP Servers Hub

MCP Servers Hub是一个集中收集和展示各种Model Context Protocol (MCP) 服务器的仓库,旨在帮助用户发现和了解不同的MCP服务器实现。

Gemini思考链MCP服务器

基于Model Context Protocol,集成Gemini模型,提供思考链工具的MCP服务器实现,支持SSE传输协议。

Figma Context MCP Server

Figma Context MCP Server是一个基于模型上下文协议(MCP)的服务器,旨在将Figma设计数据以结构化的方式提供给AI编码工具,从而提升AI代码生成的准确性和设计一致性。

MCP服务器SDK (MoonBit)

基于 MoonBit 和 WASM Component Model 构建 MCP 服务器的 SDK,提供工具注册和资源列表功能,并包含示例客户端。

MCP Assistant

MCP Assistant 是一个集成多种计算提供器(MCP)的现代聊天应用,支持调用计算器和网页搜索等外部工具,增强了AI对话功能。

Redmine MCP Server

连接Claude Desktop与Redmine,通过自然语言实现Redmine项目管理的MCP服务器。

Cline

Cline是一款AI助手VSCode扩展,通过MCP协议扩展功能,支持自定义工具和资源,提升代码开发效率。

GPT CLI 客户端 (MCP增强)

一个命令行工具,通过集成 Model Context Protocol (MCP) 服务器,增强 GPT 的功能,实现工具调用和上下文管理。

Quarkus Backstage MCP CLI

Quarkus Backstage 扩展的 MCP CLI 提供与 Backstage 后端交互的能力,并可通过 MCP 协议为 LLM 客户端提供实体和模板服务。

Fast MCP

Fast MCP 是一个 Ruby 库,旨在简化 Ruby 应用程序与 AI 模型之间的集成,实现基于 Model Context Protocol 的上下文信息和功能共享。

Code2Prompt MCP服务器

Code2Prompt MCP Server是一个基于Model Context Protocol的服务器,它能够从代码库中提取上下文信息,并以结构化的Prompt形式提供给LLM,帮助AI更好地理解和处理代码。

Entent Discord MCP Server

一个MCP服务器,允许LLM访问和操作Discord数据,提供工具从Discord频道检索消息。

AI Command Line Tool MCP Server

为AI命令行工具提供MCP服务器功能,支持资源、工具和Prompt模板管理,以标准化方式为LLM客户端提供上下文服务。

AI Playground MCP Server

aiPlayground MCPServer 是一个使用 Model Context Protocol (MCP) 框架构建的简单 MCP 服务器示例,演示了如何通过标准化的协议向 LLM 客户端提供上下文服务,包括资源管理和工具注册。

MCP HTTP代理

mcp-proxy是一个轻量级HTTP代理,允许客户端通过HTTP协议访问MCP服务器,简化了部署并使其更容易在标准HTTP基础设施上运行。

危险的MCP示例服务器

一个演示MCP工具安全风险的简单示例服务器,展示了恶意工具如何访问敏感信息。

Unity MCP 示例项目

一个基于 Unity 和 TypeScript 的 MCP 服务器示例,展示如何在 Unity 环境中通过 MCP 协议执行工具,实现与 LLM 的交互。

Dify MCP Server

Dify MCP Server是基于Model Context Protocol的应用后端,为Dify AI应用提供资源、工具和Prompt模板的托管、管理和执行能力,支持LLM客户端通过JSON-RPC协议进行交互。

Rollup MCP 插件

为 Rollup 构建流程集成 MCP 服务器,为 AI 提供项目构建上下文和工具能力。

Podman Desktop Agent 扩展

Podman Desktop Agent 扩展在 Podman Desktop 中集成并管理 MCP 服务器,为 LLM 应用提供容器环境的上下文服务。

Git Diff Reviewer

一个基于MCP的服务器,为代码评审提供Git差异信息和项目Markdown文件访问功能,主要用于集成到代码编辑器等MCP客户端。

TinyPNG MCP 服务器

一个基于 MCP 协议的服务器,用于压缩 PNG 和 JPEG 图片,通过工具集成 TinyPNG 服务。

mcp4k框架

mcp4k是一个Kotlin实现的MCP框架,用于快速构建类型安全的MCP客户端和服务器,支持资源、工具、Prompt等核心功能。

OpenAPI to MCP Server

一键将 OpenAPI 规范转换为 MCP 服务器,无缝集成 Claude Desktop,轻松为 Claude 添加 API 能力。

AI Gateway

LangDB AI Gateway 是一个开源的企业级 AI 网关,旨在统一管理和优化 LLM 流量,并支持与 MCP 服务器集成,提供上下文信息和工具能力。

Vue MCP Vite 插件

为 Vue 应用提供 MCP 服务器,暴露组件树、状态、路由和 Pinia 数据,用于 LLM 上下文增强。

Encom

Encom 是一个 Ruby 库,用于构建 Model Context Protocol (MCP) 服务器和客户端,专注于提供工具执行框架。

Spring AI MCP Server Demo

基于 Spring AI 框架实现的 MCP 服务器示例,提供日期时间和天气查询工具,展示如何通过 Spring AI 构建 MCP 应用后端。

MCPR

Rust实现的模型上下文协议(MCP)库,提供构建MCP服务器和客户端的工具和库。

语音助手MCP音乐播放器服务端

一个基于MCP协议的音乐播放器服务器,通过工具提供音乐播放能力,可与LLM客户端协同工作。

闪电网络 MCP 服务器

Lightning MCP 是一个 MCP 服务器,旨在桥接比特币闪电网络和 AI 智能体,通过 MCP 协议实现比特币支付功能。

n8n Nabi MCP Server

n8n Nabi MCP Server 是一个将 n8n 工作流自动化平台与 Model Context Protocol (MCP) 服务器集成的项目,旨在为 AI 代理提供可调用的 n8n 工作流工具。

Query MCP (Supabase MCP Server)

Query MCP 是一个 Supabase MCP 服务器,它扩展了 IDE 的能力,使其可以通过自然语言安全地执行 SQL 查询、管理数据库和 Supabase 项目。

Wordware MCP Server

Wordware MCP Server是一个本地服务器,用于将Wordware AI应用作为MCP工具提供给支持MCP协议的客户端,如Claude Desktop。

Squirrel 代码分析与报告系统

Squirrel 是一个高性能的代码分析和报告系统,通过 MCP 协议提供上下文服务,支持 LLM 客户端进行代码分析、安全扫描和性能评估等任务。

Spring AI MCP 服务示例

演示如何使用 Spring AI 构建 MCP 服务器,提供地理编码和时区查询工具,供 LLM 客户端调用。

Blender MCP

Blender MCP项目是一个有效的MCP服务器实现,它允许AI模型通过Model Context Protocol与Blender进行交互,执行3D建模和场景操作任务。

LND MCP Server

LND MCP Server是一个基于Model Context Protocol的服务器,允许用户通过自然语言查询访问其闪电网络节点信息,目前专注于通道数据查询。

CentralMind Gateway

CentralMind Gateway 是一款轻量级 API 网关,能够将数据库快速转换为 AI 友好的 MCP 和 RESTful API 服务。

MalloryAI MCP Server

基于MCP协议的网络安全情报服务器,为LLM应用提供威胁情报和漏洞数据查询等工具。

Kaltura MCP Server

Kaltura MCP Server 是一个基于 Model Context Protocol 构建的服务器,旨在为 AI 模型提供对 Kaltura 视频平台功能的标准化访问接口,包括媒体管理、分类和用户管理等。

Hello-MCP:Claude桌面应用的MCP桥梁工具

Hello-MCP 简化了 Claude 桌面应用与外部工具的集成,通过 MCP 协议提供便捷的工具配置和扩展能力。

MCP Proxy

为基于 stdio 传输的 MCP 服务器提供 SSE 代理,使其可以通过 Web 客户端访问。

Ummon 代码知识图谱服务器

Ummon 是一款代码分析工具,它构建代码知识图谱并提供 MCP 服务器,使 AI 助手能够理解和查询代码库,提升代码理解和辅助编程能力。

Dify MCP 服务器

将 Dify 应用转化为符合 MCP 协议的服务器,为 MCP 客户端提供聊天和工作流功能。

SillyTavern MCP Server

SillyTavern MCP Server插件,为LLM客户端提供资源、工具和Prompt模板管理功能。

harvester mcp server

Harvester MCP Server为AI助手提供Harvester HCI集群的上下文信息和操作能力。

Stdio to SSE MCP

将基于stdio的MCP服务器转换为WebSocket服务器,方便客户端通过网络访问和使用MCP服务。

express mcp sse server

基于Model Context Protocol和Server-Sent Events的示例MCP服务器,提供资源管理和实时通信能力,用于LLM应用构建上下文服务。

nile mcp server

Nile MCP Server是一个基于Model Context Protocol的服务器实现,为LLM应用提供与Nile数据库平台交互的标准接口,支持数据库管理、SQL查询等功能。

ESP32MCPServer

ESP32MCPServer是基于 Model Context Protocol 的服务器实现,专为 ESP32 微控制器设计,通过 WebSocket 提供资源管理和实时数据更新服务,适用于连接 LLM 应用。

dbx mcp server

dbx-mcp-server 是一个基于 Model Context Protocol (MCP) 构建的服务器,它集成 Dropbox,允许 MCP 客户端通过工具与 Dropbox 进行交互,实现文件管理和内容访问等功能。

mcp server unitycatalog

mcp-server-unitycatalog 是一个 MCP 服务器,它将 Unity Catalog Functions 作为工具提供给 LLM 客户端,方便 LLM 调用 Unity Catalog 中的函数。

mcp core

mcp-core 是一个 Rust 库,实现了 Model Context Protocol (MCP) 服务器核心功能,支持通过 Stdio 和 SSE 传输协议提供工具注册、调用等服务,为 LLM 应用构建可扩展的上下文服务后端。

Openwebui server

OpenWebUI-server 是一个 MCP 服务器,它为 Cline 客户端提供 OpenWebUI 的知识库访问和工具集成能力,例如文件上传和基于 RAG 的对话功能。

tools

Livebook Tools 通过 MCP 协议为 AI 编码助手提供 Livebook 会话的上下文访问和工具调用能力,实现更智能的代码编辑体验。

go mcp

go-mcp 是 Model Context Protocol (MCP) 的 Go 语言实现库,提供构建 MCP 服务器和客户端的基础框架,支持资源、工具和 Prompt 管理,以及 SSE 和 Stdio 传输。

snyk ls

Snyk Language Server (snyk-ls) 是一个实现了 Language Server Protocol (LSP) 的语言服务器,并扩展支持 Model Context Protocol (MCP) 服务器功能,为代码分析和安全检测提供上下文服务。

nacos istio

nacos-istio 是一个 MCP 服务器,它将 Nacos 服务注册中心的数据以 Istio MCP 协议格式提供给 Istio Pilot 组件,实现 Nacos 服务在 Istio 服务网格中的自动发现。

ProxmoxMCP

ProxmoxMCP是一个基于Model Context Protocol (MCP) 的服务器,旨在为LLM客户端提供管理Proxmox虚拟化环境的上下文信息和工具,例如节点、虚拟机和存储管理。

kotlin sdk

kotlin-sdk仓库是一个基于 Model Context Protocol (MCP) 的 Kotlin SDK,它提供了构建MCP客户端和服务器端应用的能力,支持资源、工具和Prompt模板的管理,以及多种传输协议。

mcp golang

mcp-golang是一个Go语言库,用于快速构建Model Context Protocol (MCP) 服务器和客户端,支持多种传输协议和类型安全的工具定义。

llm functions

llm-functions是一个轻量级的工具和Agent框架,通过函数调用扩展LLM能力,并实现了MCP服务器,允许LLM客户端通过标准协议调用bash、Python、JavaScript等语言编写的工具和Agent。

mcp workers ai

mcp-workers-ai 是一个为 Cloudflare Workers 环境设计的 MCP 服务器 SDK,专注于为 LLM 提供工具调用能力。

workers mcp server

本仓库是Cloudflare Workers上的MCP服务器概念验证实现,允许Claude Desktop等MCP客户端通过Cloudflare Workers调用云服务功能,例如发送邮件、网页截图等。

mcp php

基于Laravel框架实现的MCP服务器,通过STDIO传输协议为LLM客户端提供资源和工具管理功能。

goose

Goose是一个开源的本地AI Agent,它包含一个可扩展的MCP服务器后端,用于自动化工程任务,并支持通过MCP协议与LLM客户端进行交互,提供资源、工具和Prompt模板管理等核心功能。

DingTalk v2

DingTalk MCP Server V2 是一个基于 MCP 协议实现的钉钉机器人后端服务,为LLM提供访问钉钉用户信息、日历事件以及发送消息等工具能力。

Azure DevOps

Azure DevOps MCP服务器为AI助手提供标准接口,使其能够安全访问和操作Azure DevOps的项目、工作项、代码仓库等资源。

Flutter

该项目是一个MCP服务器的实现,为LLM客户端提供Flutter和Dart开发相关的工具能力,例如运行、构建、分析和测试Flutter应用等。

Ollama

Ollama MCP Server是一个桥接Ollama和MCP协议的工具,允许MCP客户端通过标准化的方式调用本地Ollama LLM模型,进行模型管理、运行和OpenAI兼容的聊天补全。

OpenAI

OpenAI MCP Server是一个轻量级服务器,允许您通过MCP协议从Claude等LLM客户端直接查询OpenAI模型,实现工具调用。

Waldur MCP Server

Waldur MCP Server是一个为Claude Desktop设计的MCP服务器,它连接到Waldur平台API,为LLM应用提供访问Waldur数据和执行操作的能力,例如查询数据库、列出客户、项目、资源以及发送用户邀请等。

Image Generation Server

Image Generation MCP Server是一个基于Model Context Protocol的后端应用,允许LLM客户端通过调用工具生成图像,并支持配置图像参数和保存路径。

Honeycomb MCP Server

Honeycomb MCP Server 允许大型语言模型直接查询和分析Honeycomb的监控数据,提供数据集访问和多种分析工具。

Simple OpenAI Assistant

Simple OpenAI Assistant MCP服务器是一个轻量级应用后端,它通过MCP协议将OpenAI Assistants API的能力开放给客户端,支持创建、管理和使用OpenAI助手进行对话。

Tinybird Analytics

Tinybird MCP Server是一个应用后端,允许LLM客户端通过MCP协议与Tinybird工作空间交互,实现数据查询、API调用和数据推送等功能。