← 返回首页

"AI 集成"标签的搜索结果

找到 40 个结果

go-invoice MCP 服务器

基于 Model Context Protocol (MCP) 的本地化后端服务器,提供资源、工具和提示模板等上下文能力,通过 JSON-RPC 与 Claude Desktop/Code 客户端通信,支持 HTTP 和 stdio 双传输,适配本地发票管理的 AI 场景。

GateFlow MCP 服务器

基于 Model Context Protocol 的 MCP 服务端实现,提供对 HDL/SystemVerilog 相关资源、工具调用以及提示模板的标准化访问,并通过 JSON-RPC 与 LLM 客户端进行安全、可扩展的上下文服务交互。

Laravel Workflow MCP 服务器示例

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 Laravel Workflow 的资源、工具与流程的 MCP 接口支持,允许 AI 客户端通过 JSON-RPC 向服务器发起启动工作流、查询状态等操作,并在 Laravel 应用内完成工作流调度与结果存储。

Zuraffa MCP 服务器

基于模型上下文协议(MCP)的后端服务,向大型语言模型客户端提供资源、工具和提示模板的上下文能力,通过 JSON-RPC 的方式进行请求/响应,并支持多种传输协议(如 STDIO、SSE、WebSocket)以实现安全、可扩展的上下文服务框架。

ucon MCP 服务器

基于 Model Context Protocol(MCP)的后端服务,提供统一的资源管理、工具注册与执行、Prompt 模板渲染等能力,通过 JSON-RPC 与 LLM 客户端通信,用于单位转换、维度分析与上下文服务等场景。该实现将 ucon 的单位/维度计算能力暴露为可被 AI 客户端调用的后端服务。

Work-Chronicler MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端提供工作历史数据的资源、可执行工具和可渲染的提示模板,并通过 JSON-RPC 与客户端通信以实现上下文服务和功能扩展。

Zoho Analytics MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)管理、工具(Tools)注册与执行、以及提示模板(Prompts)的渲染等能力,允许通过 JSON-RPC 与 LLM 客户端进行标准化交互,支持多传输协议(如流式 HTTP、StdIO、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文服务框架。仓库内包含基于 Python 的 FastAPI 实现(以及可选的 Node.js 实现结构),实现完整的 MCP 服务端功能与实际数据源集成。

cms-symfony-sulu

基于 Symfony + Sulu CMS 的 MCP(Model Context Protocol)服务器实现,能向 LLM 客户端提供资源、工具、以及可渲染的 Prompt,支持通过 JSON-RPC 等协议进行交互并实现会话与权限等后端能力。该仓库不仅包含服务端核心组件,还提供了 MCP 工具、测试用例及集成示例,表明其为完整的 MCP 服务器实现,而非仅仅是客户端示例。

Cronitor MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务,提供资源与工具的注册、对接外部数据源,并通过 JSON-RPC/stdio 方式与 MCP 客户端通信,以支持 LLM 场景下的上下文、工具调用与提示模板渲染。

unplugin-devpilot MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,整合插件注册、工具执行、资源管理与提示模板,通过 JSON-RPC 与浏览器客户端通信,支持 WebSocket 与 HTTP 传输,为 LLM 提供统一的上下文、工具调用和提示渲染能力,方便在开发环境中扩展自动化工具和上下文服务。

Rancher MCP Server

基于 Model Context Protocol (MCP) 的后端服务端实现,面向大模型客户端提供 Rancher 多集群管理的资源访问、工具执行与提示模板渲染,通过 JSON-RPC 与客户端通信,支持 stdio、HTTP/SSE 等传输模式,提供可扩展的上下文和能力服务。

uiautomator2 MCP 服务器

基于 Model Context Protocol 的 MCP 服务器,提供对 Android 设备的自动化控制工具、资源和提示模板的标准化对接,支持 STDIO/HTTP 传输与 JSON-RPC 通信,便于与 LLM 客户端集成。

Whenny MCP 服务器

基于 Model Context Protocol 的服务器端实现,向客户端暴露 Whenny 的日期与时间相关工具,支持通过 JSON-RPC 请求执行工具、注册与查询工具、以及基于时区的传输/时区上下文等功能,适用于将日期服务接入到 AI 客户端的上下文环境中。

Deephaven MCP 后端服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供 System/Enterprise 资源的托管与管理、工具的注册与执行、Prompt 模板的定义与渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议以为 LLM 客户端提供安全、可扩展的上下文服务。

Planet MCP Server

基于 Model Context Protocol 的本地 MCP 服务器实现,提供对 Planet API 的上下文访问、工具调用与提示渲染能力,帮助大语言模型在本地环境中高效地与 Planet 数据和功能交互。

Grafema MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,为大语言模型(LLM)客户端提供资源托管、工具注册与执行、以及 Prompt 模板渲染等上下文服务;通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,并可通过多传输协议(如 StdIO、SSE、WebSocket)进行安全、可扩展的上下文服务交互。

PySpark MCP Server

基于 Model Context Protocol 的 Spark 后端实现,提供对 Spark SQL、计划信息与元数据的统一访问接口,供大模型(LLM)通过 MCP 客户端进行调用与分析。

Yanger 模型上下文服务端

基于模型上下文协议的后端实现,提供资源管理、外部工具注册与执行以及对外暴露的工具集合,支持通过标准化的 JSON-RPC 方式与客户端进行对话式上下文交互。

virtme-ng MCP 服务器端

基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端以统一的 JSON-RPC 形式暴露内核构建、配置、运行与测试等工具,帮助自动化地进行内核开发与验证流程。

Whimbox-MCP 服务器实现

基于 Model Context Protocol (MCP) 的服务器端实现,作为 Whimbox 的后端服务,通过 JSON-RPC 提供资源/工具(Tasks/宏相关接口)等能力给大语言模型客户端调用,支持健康检查、嵌入式工具渲染与多传输协议(如 streamable-http)。

Jenkins MCP Server Plugin

基于 Model Context Protocol (MCP) 的 Jenkins 服务端实现,提供对外暴露的工具、资源与提示等上下文能力,支持通过 JSON-RPC 进行通信,包含 SSE、流式等传输端点以及对 Jenkins 实例的会话与能力声明管理。

Memo MCP 服务端实现

一个基于 Charm KV 存储的 MCP 服务器实现,提供资源、工具、和提示模板等功能,供对话式 AI 客户端通过 JSON-RPC 与后台进行上下文交互与操作执行。当前实现通过标准输入输出(stdio)传输进行 JSON-RPC 的通信。

tempo-mcp

基于模型上下文协议(MCP)的服务器端实现,向大型语言模型客户端提供 Tempo 区块链的资源、工具和提示模板,并通过 JSON-RPC 进行交互,支持多传输协议与严格的会话与安全机制。

Composter MCP 服务器

基于 Model Context Protocol (MCP) 的服务器端实现,提供通过 API 访问组件库资源、暴露工具以供 AI 助手调用、并支持以 MCP JSON-RPC 形式与客户端进行交互的后端服务。

Playwright 自动化 MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管、工具注册与执行、以及 Prompt 模板渲染等能力,并通过 JSON-RPC 与客户端进行通信,支持多传输模式(如标准输入输出)。该服务器用于为 Playwright + Cucumber + TestNG 等测试框架提供统一的上下文服务和智能代码生成功能。

Polymarket MCP 服务器

基于 Model Context Protocol 的后端服务器,向 LLM 客户端以标准化 JSON-RPC 提供资源、工具与提示模板,并实现会话管理、认证与多传输协议扩展。

lkr CLI - Looker MCP 服务器

结合 Looker SDK 提供 CLI 工具,并内置 MCP 服务器为 LLM 客户端提供 Looker 上下文和功能。

SchemaCrawler AI MCP Server

提供数据库 schema 信息和功能给 AI 客户端,支持 AI 调用 SchemaCrawler 工具进行数据库探索和分析。

TaskNote Bridge Swift MCP 服务器

将 Apple Notes 和 Things 3 集成到大语言模型客户端的 MCP 服务器。

DigitalOcean MCP 服务器

通过 Model Context Protocol (MCP) 连接 AI 客户端与 DigitalOcean 资源,实现智能化的云管理。

Alation 数据目录 MCP 服务器

将 Alation 数据目录的元数据和功能以标准 MCP 协议暴露给 LLM 客户端的应用后端。

Dubbo MCP 服务适配器

使Dubbo应用具备MCP能力,将Dubbo服务自动转换为LLM可调用的工具。

Google 服务 MCP 服务器集

通过 MCP 协议,为 AI 助手提供访问和管理 Google 日历、Gmail 和 Drive 的能力。

MCP PDF 文档知识库

一个基于MCP协议的PDF文档知识库服务器,支持上传、处理和检索PDF内容,可与AI工具集成。

Azure DevOps MCP 工具集

通过MCP协议向AI/LLM提供访问Azure Boards和Pipelines的功能。

TickTick MCP Server

增强 TickTick 工作流程的 MCP 服务器,使 AI 助手和兼容 MCP 的应用能更精确地管理和过滤你的任务。

Quip MCP Server (Python)

基于 Model Context Protocol (MCP),提供访问 Quip 电子表格数据及相关工具的后端服务。

Jira MCP 连接器

一个基于 MCP 的 Go 语言应用后端,使 AI 助手(如 Claude)能够与 Atlassian Jira 进行交互和管理任务。

CloudGlue MCP 服务器

连接 CloudGlue 平台与 AI 助手,为 LLM 提供视频内容理解、分析和管理工具。

Smartlead MCP 服务器

将 Smartlead API 功能以 Model Context Protocol (MCP) 标准暴露给 AI 助手和自动化工具。