← 返回首页

"API 集成"标签的搜索结果

找到 16 个结果

Multilead Open API MCP 服务器

基于 FastMCP 的 MCP 服务器实现,提供对 Multilead Open API 的资源、工具、提示模板的标准化访问,支持 STDIO/HTTP 等传输模式,具备认证、错误处理、速率限制以及可扩展的插件化工具集与提示模板。

Jules MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源、工具与提示模板的托管、注册与渲染能力,并通过 MCP 协议与客户端进行 JSON-RPC 交互,支持多种传输方式与会话管理。

FreeScout MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,面向 FreeScout 工单管理、分析与自动化工作流。通过 JSON-RPC 与客户端交互,提供资源、工具和提示模板的托管、执行与渲染能力,支持与 Git、PR 流程集成的端到端场景。

MCP Toggl Server

基于 MCP(Model Context Protocol)的 Toggl Track MCP 服务器,向大型语言模型客户端提供时间跟踪、报表与数据 hydration 等上下文服务,借助工具接口暴露 Toggl 功能,并通过 JSON-RPC 形式进行安全、可扩展的交互与会话管理。

MCP Perf Suite

基于 Model Context Protocol (MCP) 的后端服务器集合,提供以 JSON-RPC 方式向 LLM 客户端暴露的资源管理、工具执行与提示渲染等能力,用以构建端到端的性能测试、分析与报告管线。仓库中包含多路 MCP 服务器实现(如 JMeter、BlazeMeter、Datadog、Perf Analysis、Confluence、Microsoft Graph 等),实现资源、工具、提示的注册与执行,以及 JMeter JMX 生成、数据汇总、报表输出等功能,支持多种传输协议(如 stdio、WebSocket、SSE),具备会话管理、能力声明与跨服务器协作能力,旨在为 LLM 驱动的性能测试流水线提供稳定的后端上下文与接口服务。

Qveris MCP Server SDK

基于 Model Context Protocol 的后端服务器实现,提供工具发现、信息获取与执行能力,通过 JSON-RPC 与客户端交互,支持通过标准化接口向 LLM 客户端提供上下文信息和外部工具执行能力。

Keywords Everywhere MCP 服务器

基于 Model Context Protocol(MCP)的服务器实现,提供 Keywords Everywhere API 的资源、工具以及提示模板,供大语言模型客户端通过 JSON‑RPC 调用获取关键字数据、域名分析、流量、反向链接等信息。该实现包含可运行的服务端代码、MCP 传输支持和工具注册,可自托管或使用托管端点。

Quay MCP 服务器

MCP 服务器,用于通过 LLM 访问和管理 Quay 容器镜像仓库。

JumpServer MCP Server

将JumpServer API封装为MCP工具, enabling AI/LLM clients to interact with JumpServer功能。

HTTP + SSE MCP 服务器 (OAuth)

基于MCP协议,实现HTTP/SSE传输协议并集成OAuth认证的MCP服务器参考实现。

Contentstack MCP 工具集

通过MCP协议为LLM提供访问Contentstack Knowledge Vault及模拟数据的功能工具。

Mercado Pago MCP 服务器

提供 Mercado Pago 文档搜索工具,使大语言模型客户端能够查询相关信息的 MCP 服务器。

OpenAPI to MCP Server

一键将 OpenAPI 规范转换为 MCP 服务器,无缝集成 Claude Desktop,轻松为 Claude 添加 API 能力。

mcp rest api

dkmaker_mcp-rest-api 是一个基于 TypeScript 开发的 MCP 服务器,提供 REST API 测试工具,允许用户通过 MCP 客户端(如 Cline)调用和调试 RESTful 接口。

ClaudeMCPServer

Claude MCP Server Collection 仓库提供了一系列MCP服务器,旨在增强 Claude 桌面应用的功能,包括屏幕截图、计算机控制、数据分析和API集成等能力。

openapi mcp server

将 OpenAPI 规范转换为 MCP 工具,使 LLM 客户端能够通过自然语言调用和使用任何符合 OpenAPI 3.1 规范的 API。