← 返回首页

"工具注册与执行"标签的搜索结果

找到 17 个结果

Cortex MCP 服务器端(Memory Bank 上下文管理服务器)

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板的渲染与渲染管理,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,以及多传输协议的扩展,以为大语言模型客户端提供结构化的上下文与功能服务。

Debate Hall MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册与执行、以及可渲染的 Prompt 模板,供大模型客户端以标准化的 JSON-RPC 方式获取上下文数据、调用外部功能与获取对话模板。服务器实现了会话管理、能力声明,并支持多种传输协议(如 Stdio、SSE、WebSocket),为结构化辩论场景中的 Wind/Wall/Door 模型提供安全、可扩展的上下文服务框架。

Voice Mirror MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具和提示模板的托管、注册与渲染,并通过 JSON-RPC 与客户端通信,支持会话管理与多种传输协议。

Agentic-MCP 服务器集合

基于 Model Context Protocol (MCP) 的后端服务集合,提供资源管理、工具注册与执行,以及可渲染的 Prompt 模板,支持 JSON-RPC 风格通信和 STDIO/WebSocket 等传输协议,用于向 LLM 客户端暴露上下文、工具和资源等能力。

kemdiCode MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,向 AI 客户端以标准化方式提供资源管理、工具注册与执行,以及提示模板渲染等功能,采用 JSON-RPC 与客户端通信并支持多种传输通道。

CompText MCP 服务器

基于 Model Context Protocol (MCP) 的服务端实现,作为 CompText Codex 的后端上下文服务,向 MCP 客户端暴露工具清单、执行工具调用、以及初始化能力声明等接口。通过将 Codex 中注册的命令工具对外暴露,MCP 客户端能够读取资源、调用工具、以及获取提示/模板等相关能力信息,并在会话中实现上下文管理与跨模块协作。目前实现提供工具列出、工具执行和初始化响应等核心能力,属于可直接在应用中集成的 MCP 服务器端组件。

APPointme MCP 服务端实现

基于 Model Context Protocol 的 MCP 服务器实现,向大语言模型客户端提供资源数据、工具执行能力和 Prompt 模板渲染等上下文服务,支持通过标准化的 JSON-RPC 方式交互,并可通过 STDIO、SSE/HTTP 等传输协议进行通信与会话管理。

Google Workspace MCP Server

基于 Model Context Protocol 的后端服务器实现,向大型语言模型客户端提供 Google Workspace 的资源、工具和 Prompt 模板,支持多服务整合、认证管理与可扩展的上下文服务。

Appwrite MCP Server (mcp-for-api)

一个基于 Model Context Protocol 的服务器实现,向大语言模型提供 Appwrite API 的资源、工具与提示模板,并通过 JSON-RPC 进行通信,作为 MCP 后端服务。

简单MCP 服务器示例

基于模型上下文协议的简单MCP服务器实现,提供工具注册与执行、资源管理、以及Prompt/模板等核心能力,采用JSON-RPC通过标准输入输出(stdio)与客户端通信,便于教育演示和本地测试。

Scalekit MCP 服务器端

基于 Model Context Protocol 的企业级 MCP 服务器实现,提供资源、工具、以及环境/组织/工作区管理等能力,支持 OAuth2.1 认证保护,并通过 JSON-RPC 风格的 MCP 传输与 LLM 客户端交互,为 AI 助手提供统一的上下文数据和外部功能入口。

Inkog MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及提示模板渲染等能力,通过 JSON-RPC 与 MCP 客户端通信,支持对 AI 安全相关工具、治理验证、合规报告、MLBOM 等功能的上下文服务。

MCP 服务器示例与工具/资源整合演示(Model Context Protocol 服务端)

基于 Model Context Protocol(MCP)的服务器端实现示例集合,展示如何暴露工具、资源与 Prompt 模板,并通过 JSON-RPC 与客户端进行通信,涵盖多种 MCP 服务端实现与用法,适合作为后端上下文服务的参考实现。

Tactus MCP 服务端实现

基于模型上下文协议(MCP)的服务器端实现,面向后端提供统一的资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染。通过 JSON-RPC 与客户端通信,支持会话管理、能力申明,并可通过多种传输协议(如 STDIO、SSE、WebSocket)实现安全、可扩展的上下文服务,方便 LLM 客户端调取资源、执行工具与获取定制的 Prompt。该仓库明确包含 MCP 相关的服务端实现与集成能力。

YakShaver MCP Server (Desktop Electron 后端)

基于模型上下文协议(MCP)的后端实现,作为 YakShaver 桌面应用的服务端,负责托管与管理内部 MCP 服务器、注册与执行工具,以及定义与渲染提示模板,通过 JSON-RPC 进行与 LLM 客户端的标准化通信,提供安全、可扩展的上下文服务框架。

Quint Code MCP Server

基于模型上下文协议(MCP)的后端服务,实现了通过标准 JSON-RPC 对外提供资源管理、工具注册与执行、以及上下文相关提示/工作流的能力。该实现以 stdio 为传输介质,供 LLM 客户端(如 Claude Code、Cursor、Gemini CLI、Codex CLI 等)调用并集成到软件工程场景的推理与协作中,内部使用 SQLite DB 存储知识组件与工作流状态,支持多阶段的 FP F(First Principles Framework)推理循环。

arifOS MCP Server

基于 Model Context Protocol (MCP) 的后端治理与资源/工具/提示模板管理服务器,面向 LLM 客户端提供标准化的上下文数据、可注册/执行的工具集以及可渲染的 Prompt 模板。服务器通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,并具备扩展传输协议(如 STDIO、SSE、WebSocket)的能力,为 LLM 应用提供安全、可审计的上下文服务框架。