← 返回首页

"API 服务"标签的搜索结果

找到 12 个结果

Flux MCP 伺服端实现

基于 Flux 的 MCP(Model Context Protocol)服务器实现,提供标准化的资源管理、工具执行以及基于模板的提示渲染能力,以 JSON-RPC 方式与客户端交互,支持多传输(如 Stdio、HTTP/SSE),可为 LLM 客户端提供上下文和外部功能调用能力。

Kodus MCP Manager

基于 Model Context Protocol(MCP)的后端服务实现,提供资源与工具的注册与管理、集成管理、OAuth 授权流以及面向 LLM 客户端的上下文与能力服务,支持多提供商体系与可扩展的服务器端特性。

Hadoop 作业历史 MCP 服务器

基于 Hadoop JobHistory Server REST API 的 MCP 服务器实现,向大语言模型(LLM)客户端提供作业历史查询、任务与日志获取等工具,支持本地 STDIO 和 HTTP 传输模式,便于将 Hadoop 作业数据以标准化的 MCP 形式暴露给 AI 助手。

cms-symfony-sulu

基于 Symfony + Sulu CMS 的 MCP(Model Context Protocol)服务器实现,能向 LLM 客户端提供资源、工具、以及可渲染的 Prompt,支持通过 JSON-RPC 等协议进行交互并实现会话与权限等后端能力。该仓库不仅包含服务端核心组件,还提供了 MCP 工具、测试用例及集成示例,表明其为完整的 MCP 服务器实现,而非仅仅是客户端示例。

Rancher MCP Server

基于 Model Context Protocol (MCP) 的后端服务端实现,面向大模型客户端提供 Rancher 多集群管理的资源访问、工具执行与提示模板渲染,通过 JSON-RPC 与客户端通信,支持 stdio、HTTP/SSE 等传输模式,提供可扩展的上下文和能力服务。

MCP 数据平台服务器

基于 Model Context Protocol (MCP) 的数据平台后端服务器,提供资源管理、工具注册与执行、提示模板渲染等核心能力,并通过 JSON-RPC 风格的 MCP 协议与客户端通信,支持多种传输方式(stdio、SSE、WebSocket),用于向大型语言模型(LLM)提供上下文、能力与工具入口。

gh-actions-mcp

基于 Model Context Protocol (MCP) 的后端服务器实现,向大语言模型客户端以标准化方式提供 GitHub Actions 的上下文信息、工具和提示模板,并通过 JSON-RPC 与客户端通信,支持以 Stdio 传输模式运行,便于在 Claude Desktop 等环境中集成使用。

Codesearch MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现。该服务器托管并管理资源、注册并执行工具、定义并渲染 prompts,通过 MCP 协议与客户端进行 JSON-RPC 通信,支持将多代理代码搜索能力整合为一个可扩展的后端服务(当前实现以标准输入传输(stdio)为主,未来可扩展到 SSE/WebSocket 等传输方式)。

Agent Bridge MCP Server Mock & Integration

一个将 LangChain 代理与 MCP 服务器整合的后端平台,包含可运行的 MCP 服务器示例(Mock),用于向大模型客户端提供资源、工具和提示模板等上下文信息,并提供完整的服务端框架以注册、管理 MCP 服务器和工具权限,支持实时通信与安全认证等能力。

Langfuse Docs MCP Server

基于模型上下文协议(MCP)的后端服务器,在 Langfuse 文档站点中暴露 MCP 服务,提供工具注册、与客户端的 JSON-RPC 通信,以及为 LLM 客户端提供文档检索与页面获取等能力。

仓库订单管理 MCP 服务端示例

基于 FastAPI 和 fastapi-mcp 库实现的仓库订单管理 MCP 服务器示例,通过 MCP 协议提供订单管理能力。

gpt computer assistant

GPT Computer Assistant (GCA) 是一个开源框架 acting as an MCP server, enabling vertical AI agents to interact with and control computers via resources and tools.