← 返回首页

"API 集成"标签的搜索结果

找到 31 个结果

Supadata MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 Supadata API 的工具化访问(转录、网页抓取、地图发现和网站爬虫),通过 JSON-RPC 与 LLM 客户端进行资源管理、工具调用与提示模板渲染。支持多种传输方式(STDIO、Web HTTP),为 LLM 应用提供安全、可扩展的上下文服务框架。

Recharge Storefront API MCP Server

基于 Model Context Protocol 的后端服务器,实现对 Recharge Storefront API 的资源访问、工具注册/执行以及 Prompts 渲染,面向与 LLM 客户端的标准化上下文服务能力。

MCPS 模型上下文协议服务器合集

基于 Model Context Protocol (MCP) 的后端服务器集合,提供资源、工具、提示模板等能力,供大语言模型(LLM)通过 JSON-RPC 方式调用和使用,用于资源管理、工具执行、提示渲染等场景。

Medical MCP 服务器集合(生物医药 API 集成与统一工具端点)

基于 Model Context Protocol (MCP) 的后端服务器实现,聚合多家生物医药数据库的工具与资源,通过 JSON-RPC 与 LLM 客户端通信,提供资源托管、工具注册与执行、提示模板渲染等能力,并支持统一端点与各个 API 的专用端点,面向将来将上下文信息与功能模块化提供给大语言模型进行后端上下文服务。该仓库实现了一个以 FastMCP 为核心、覆盖 Reactome、KEGG、UniProt、Omim、GWAS、PubMed、OpenFDA、MyVariant、BioThings、NCI 等多家 API 的 MCP 服务器集合。

Claude Home Assistant MCP 服务器

基于 Model Context Protocol (MCP) 的 Home Assistant 后端实现,提供 13 种 MCP API 工具用于查询与操作 Home Assistant 资源、执行服务、以及渲染模板,支持标准化的 JSON-RPC 通信,并通过标准输出/输入(STDIO)等传输方式与 MCP 客户端协同工作。

Hatch MCP 服务器端

基于 Hatch CLI 的 MCP(模型上下文协议)后端实现,提供资源与数据访问、工具注册与执行、以及 Prompts 渲染等能力。服务器通过 JSON-RPC 与 AI 客户端通信,注册多种工具并暴露给客户端,支持通过标准输入/输出(stdio)等传输方式进行交互,适合作为 LLM 助手的上下文与功能服务端。该实现包含完整的服务器端逻辑、工具注册、认证、以及与 Hatch API 的交互。

Google Workspace MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,提供对 Google Workspace 服务的资源、工具和提示模板等上下文服务,并通过 MCP JSON-RPC 与客户端通信,支持资源管理、工具注册与调用、以及 prompts 渲染等功能,适用于向 LLM 客户端提供安全、可扩展的上下文服务。

Lightning Wallet MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端以标准化方式提供资源、工具和提示模板等上下文服务,并集成 Lightning Network 的支付与账户管理能力,支持 Operator/Agent 模式的 API 调用与管理。

Reactive Resume MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供对 Reactive Resume 的资源、工具与提示模板的标准化访问,支持通过 JSON-RPC 与 LLM 客户端交互,完成简历管理、编辑及导出等能力的远程调用。

mcp-for-mcv

基于 FastMCP 的 MCP 服务器实现,为 MyCourseVille 提供上下文资源、工具执行和提示模板的后端服务,面向与 LLM 客户端的标准化上下文服务。

Altmetric MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型客户端暴露工具(Tools)与外部数据源访问能力,通过 JSON-RPC 风格的请求/响应进行交互,并支持 STDIO 传输以便与本地或嵌入式 LLM 集成。

inFlow Inventory MCP Server

基于 Model Context Protocol 的后端服务器,将 inFlow Inventory API 暴露为统一的上下文服务,支持资源读取、工具执行与上下文模板渲染,供大语言模型客户端通过 MCP 进行交互和集成。

Readur MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,将 Readur 的文档管理与 OCR API 以工具形式暴露给 AI 助手,通过 JSON-RPC 提供资源读取、工具调用和提示渲染等 MCP 功能。

ez-xbow-platform-mcp

基于 Model Context Protocol (MCP) 的后端服务器,向 LLM 客户端提供资源管理、工具执行和提示模板等上下文服务,支持多传输协议、会话管理与本地历史记录,为 AI 驱动的安全挑战赛场景提供后端支撑。

Fortnox MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,向大型语言模型客户端以标准化方式暴露 Fortnox 的资源、工具和提示模板,支持本地和远程授权模式,以及多种传输方式(Stdio、SSE、HTTP),用于 Fortnox 的会话管理、能力声明与外部功能调用。

Multilead Open API MCP 服务器

基于 FastMCP 的 MCP 服务器实现,提供对 Multilead Open API 的资源、工具、提示模板的标准化访问,支持 STDIO/HTTP 等传输模式,具备认证、错误处理、速率限制以及可扩展的插件化工具集与提示模板。

Jules MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源、工具与提示模板的托管、注册与渲染能力,并通过 MCP 协议与客户端进行 JSON-RPC 交互,支持多种传输方式与会话管理。

FreeScout MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,面向 FreeScout 工单管理、分析与自动化工作流。通过 JSON-RPC 与客户端交互,提供资源、工具和提示模板的托管、执行与渲染能力,支持与 Git、PR 流程集成的端到端场景。

MCP Toggl Server

基于 MCP(Model Context Protocol)的 Toggl Track MCP 服务器,向大型语言模型客户端提供时间跟踪、报表与数据 hydration 等上下文服务,借助工具接口暴露 Toggl 功能,并通过 JSON-RPC 形式进行安全、可扩展的交互与会话管理。

MCP Perf Suite

基于 Model Context Protocol (MCP) 的后端服务器集合,提供以 JSON-RPC 方式向 LLM 客户端暴露的资源管理、工具执行与提示渲染等能力,用以构建端到端的性能测试、分析与报告管线。仓库中包含多路 MCP 服务器实现(如 JMeter、BlazeMeter、Datadog、Perf Analysis、Confluence、Microsoft Graph 等),实现资源、工具、提示的注册与执行,以及 JMeter JMX 生成、数据汇总、报表输出等功能,支持多种传输协议(如 stdio、WebSocket、SSE),具备会话管理、能力声明与跨服务器协作能力,旨在为 LLM 驱动的性能测试流水线提供稳定的后端上下文与接口服务。

Qveris MCP Server SDK

基于 Model Context Protocol 的后端服务器实现,提供工具发现、信息获取与执行能力,通过 JSON-RPC 与客户端交互,支持通过标准化接口向 LLM 客户端提供上下文信息和外部工具执行能力。

Keywords Everywhere MCP 服务器

基于 Model Context Protocol(MCP)的服务器实现,提供 Keywords Everywhere API 的资源、工具以及提示模板,供大语言模型客户端通过 JSON‑RPC 调用获取关键字数据、域名分析、流量、反向链接等信息。该实现包含可运行的服务端代码、MCP 传输支持和工具注册,可自托管或使用托管端点。

Quay MCP 服务器

MCP 服务器,用于通过 LLM 访问和管理 Quay 容器镜像仓库。

JumpServer MCP Server

将JumpServer API封装为MCP工具, enabling AI/LLM clients to interact with JumpServer功能。

HTTP + SSE MCP 服务器 (OAuth)

基于MCP协议,实现HTTP/SSE传输协议并集成OAuth认证的MCP服务器参考实现。

Contentstack MCP 工具集

通过MCP协议为LLM提供访问Contentstack Knowledge Vault及模拟数据的功能工具。

Mercado Pago MCP 服务器

提供 Mercado Pago 文档搜索工具,使大语言模型客户端能够查询相关信息的 MCP 服务器。

OpenAPI to MCP Server

一键将 OpenAPI 规范转换为 MCP 服务器,无缝集成 Claude Desktop,轻松为 Claude 添加 API 能力。

mcp rest api

dkmaker_mcp-rest-api 是一个基于 TypeScript 开发的 MCP 服务器,提供 REST API 测试工具,允许用户通过 MCP 客户端(如 Cline)调用和调试 RESTful 接口。

ClaudeMCPServer

Claude MCP Server Collection 仓库提供了一系列MCP服务器,旨在增强 Claude 桌面应用的功能,包括屏幕截图、计算机控制、数据分析和API集成等能力。

openapi mcp server

将 OpenAPI 规范转换为 MCP 工具,使 LLM 客户端能够通过自然语言调用和使用任何符合 OpenAPI 3.1 规范的 API。