返回首页

"工具注册与执行" 标签

32 个结果

标签搜索结果

AI与计算

open-context MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供本地化的上下文资源、工具注册与内置提示模板渲染能力,并通过 MCP 的 JSON-RPC 与客户端通信,支持会话管理与本地存储。

AI与计算

Calliope MCP 服务端实现

基于 Model Context Protocol (MCP) 的服务器实现,向大语言模型客户端提供标准化的上下文服务与能力,包括资源管理、工具注册/执行以及提示模板的定义与渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 HTTP/HTTPS、stdio),具备会话管理、能力声明与可扩展的后端架构。

AI与计算

Docker Agent MCP 服务器

基于 MCP 的后端服务器实现,提供资源、工具、提示模板等标准化上下文服务,并通过 JSON-RPC 与 LLM 客户端通信,支持多传输协议(stdio、HTTP、SSE、WebSocket 等)。

AI与计算

Lobster MCP 后端

基于 Model Context Protocol (MCP) 的服务器实现,作为后端后端上下文服务提供者,托管资源、注册与执行工具、定义与渲染 prompts,并通过 JSON-RPC 与 LLM 客户端通信,支持会话管理与多传输协议,面向 Claude Code 生态的可扩展上下文服务框架。

AI与计算

Spacebot MCP 服务器端

Spacebot 的 MCP(Model Context Protocol)服务器实现,提供对外部资源、工具与提示模板的标准化上下文服务,支持多传输通道、自动工具发现、热Reload,以及通过 API 暴露的管理能力,面向对接 LLM 客户端的 JSON-RPC 通信。

AI与计算

PEAC MCP 服务器实现(Node.js/TypeScript)

基于 Model Context Protocol 的后端实现,提供资源与工具的托管、Prompts 交互以及通过 JSON-RPC 在标准 I/O 流上与 LLM 客户端通信的 MCP 服务器

AI与计算

VellaVeto MCP 服务器

基于模型上下文协议(MCP)的后端服务,提供资源管理、工具注册与执行、以及提示模板渲染等能力,并具备策略执行、审计追踪与多传输协议支持的 MCP 服务器实现。通过 JSON-RPC 与客户端通信,支持会话管理、能力声明与多种传输模式,面向高安全性、可扩展的上下文服务框架。

AI与计算

AIquila MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向 Claude 等 LLM 客户端以标准化方式提供 Nextcloud 的资源数据、可注册执行的 Tools,以及 Prompt 模板等上下文服务,并通过 JSON-RPC 及多种传输形式(stdio、HTTP)进行通信与会话管理。

AI与计算

Agentic Titan MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、提示模板渲染等能力,并通过 JSON-RPC(以 MCP 为核心)与客户端通信,支持通过 STDIO 传输的 MCP 后端服务。

AI与计算

Octave MCP Server

基于 Model Context Protocol (MCP) 的后端服务,按标准化方式向 LLM 客户端提供资源、工具与 Prompt 模板,并通过 JSON-RPC 进行通信,支持多传输协议与会话管理,适用于以上下文驱动的 AI 应用场景。

AI与计算

OpenSearch Launchpad MCP Server

基于 Model Context Protocol(MCP)的后端服务器,提供资源、工具与 Prompt 的标准化管理与 JSON-RPC 通信,以支持 LLM 客户端按阶段获取上下文、执行计划、验证以及工作流渲染等能力。

网页与API

corvid-agent MCP 服务端实现

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册与执行、提示模板渲染等能力,并通过 HTTP/WebSocket/OpenAPI 等协议对外暴露接口,支持与其他 MCP 客户端/服务器的对接与多模型协作。

AI与计算

Rystem 模型上下文协议服务器

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具和提示模板的托管与注册,并通过 JSON-RPC 与 LLM 客户端通信,支持本地开发与扩展传输。

AI与计算

Gagaclaw MCP 服务器实现

一个基于 Model Context Protocol (MCP) 的后端服务器实现,用于将 Antigravity IDE 通过 MCP 协议暴露给 LLM 客户端,提供工具注册、任务执行与流式响应等核心能力,同时包含一个用于 Groq 转写和 Telegram 文件传送的 MCP 工具集成。

开发者工具

Flyto-core MCP 服务器实现

基于 Flyto-core 的 MCP 服务器实现,提供资源与工具的标准化注册与管理、Prompt 模板定义,以及通过 JSON-RPC 与客户端进行交互的服务端核心功能。支持会话管理、能力声明,并可通过多种传输协议(如 STDIO、HTTP、SSE、WebSocket)进行上下文服务提供,面向 LLM 客户端的上下文数据、工具调用和提示渲染等能力。

AI与计算

Cortex MCP 服务器端(Memory Bank 上下文管理服务器)

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板的渲染与渲染管理,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,以及多传输协议的扩展,以为大语言模型客户端提供结构化的上下文与功能服务。

AI与计算

Debate Hall MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册与执行、以及可渲染的 Prompt 模板,供大模型客户端以标准化的 JSON-RPC 方式获取上下文数据、调用外部功能与获取对话模板。服务器实现了会话管理、能力声明,并支持多种传输协议(如 Stdio、SSE、WebSocket),为结构化辩论场景中的 Wind/Wall/Door 模型提供安全、可扩展的上下文服务框架。

AI与计算

Voice Mirror MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具和提示模板的托管、注册与渲染,并通过 JSON-RPC 与客户端通信,支持会话管理与多种传输协议。

AI与计算

Agentic-MCP 服务器集合

基于 Model Context Protocol (MCP) 的后端服务集合,提供资源管理、工具注册与执行,以及可渲染的 Prompt 模板,支持 JSON-RPC 风格通信和 STDIO/WebSocket 等传输协议,用于向 LLM 客户端暴露上下文、工具和资源等能力。

AI与计算

kemdiCode MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,向 AI 客户端以标准化方式提供资源管理、工具注册与执行,以及提示模板渲染等功能,采用 JSON-RPC 与客户端通信并支持多种传输通道。

AI与计算

CompText MCP 服务器

基于 Model Context Protocol (MCP) 的服务端实现,作为 CompText Codex 的后端上下文服务,向 MCP 客户端暴露工具清单、执行工具调用、以及初始化能力声明等接口。通过将 Codex 中注册的命令工具对外暴露,MCP 客户端能够读取资源、调用工具、以及获取提示/模板等相关能力信息,并在会话中实现上下文管理与跨模块协作。目前实现提供工具列出、工具执行和初始化响应等核心能力,属于可直接在应用中集成的 MCP 服务器端组件。

网页与API

APPointme MCP 服务端实现

基于 Model Context Protocol 的 MCP 服务器实现,向大语言模型客户端提供资源数据、工具执行能力和 Prompt 模板渲染等上下文服务,支持通过标准化的 JSON-RPC 方式交互,并可通过 STDIO、SSE/HTTP 等传输协议进行通信与会话管理。

AI与计算

Google Workspace MCP Server

基于 Model Context Protocol 的后端服务器实现,向大型语言模型客户端提供 Google Workspace 的资源、工具和 Prompt 模板,支持多服务整合、认证管理与可扩展的上下文服务。

AI与计算

Appwrite MCP Server (mcp-for-api)

一个基于 Model Context Protocol 的服务器实现,向大语言模型提供 Appwrite API 的资源、工具与提示模板,并通过 JSON-RPC 进行通信,作为 MCP 后端服务。

AI与计算

简单MCP 服务器示例

基于模型上下文协议的简单MCP服务器实现,提供工具注册与执行、资源管理、以及Prompt/模板等核心能力,采用JSON-RPC通过标准输入输出(stdio)与客户端通信,便于教育演示和本地测试。

网页与API

Scalekit MCP 服务器端

基于 Model Context Protocol 的企业级 MCP 服务器实现,提供资源、工具、以及环境/组织/工作区管理等能力,支持 OAuth2.1 认证保护,并通过 JSON-RPC 风格的 MCP 传输与 LLM 客户端交互,为 AI 助手提供统一的上下文数据和外部功能入口。

AI与计算

Inkog MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及提示模板渲染等能力,通过 JSON-RPC 与 MCP 客户端通信,支持对 AI 安全相关工具、治理验证、合规报告、MLBOM 等功能的上下文服务。

网页与API

MCP 服务器示例与工具/资源整合演示(Model Context Protocol 服务端)

基于 Model Context Protocol(MCP)的服务器端实现示例集合,展示如何暴露工具、资源与 Prompt 模板,并通过 JSON-RPC 与客户端进行通信,涵盖多种 MCP 服务端实现与用法,适合作为后端上下文服务的参考实现。

AI与计算

Tactus MCP 服务端实现

基于模型上下文协议(MCP)的服务器端实现,面向后端提供统一的资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染。通过 JSON-RPC 与客户端通信,支持会话管理、能力申明,并可通过多种传输协议(如 STDIO、SSE、WebSocket)实现安全、可扩展的上下文服务,方便 LLM 客户端调取资源、执行工具与获取定制的 Prompt。该仓库明确包含 MCP 相关的服务端实现与集成能力。

桌面与硬件

YakShaver MCP Server (Desktop Electron 后端)

基于模型上下文协议(MCP)的后端实现,作为 YakShaver 桌面应用的服务端,负责托管与管理内部 MCP 服务器、注册与执行工具,以及定义与渲染提示模板,通过 JSON-RPC 进行与 LLM 客户端的标准化通信,提供安全、可扩展的上下文服务框架。

AI与计算

Quint Code MCP Server

基于模型上下文协议(MCP)的后端服务,实现了通过标准 JSON-RPC 对外提供资源管理、工具注册与执行、以及上下文相关提示/工作流的能力。该实现以 stdio 为传输介质,供 LLM 客户端(如 Claude Code、Cursor、Gemini CLI、Codex CLI 等)调用并集成到软件工程场景的推理与协作中,内部使用 SQLite DB 存储知识组件与工作流状态,支持多阶段的 FP F(First Principles Framework)推理循环。

开发者工具

arifOS MCP Server

基于 Model Context Protocol (MCP) 的后端治理与资源/工具/提示模板管理服务器,面向 LLM 客户端提供标准化的上下文数据、可注册/执行的工具集以及可渲染的 Prompt 模板。服务器通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,并具备扩展传输协议(如 STDIO、SSE、WebSocket)的能力,为 LLM 应用提供安全、可审计的上下文服务框架。