返回首页

"工具注册与调用" 标签

11 个结果

标签搜索结果

AI与计算

GZOO Cortex MCP 服务器

基于 Model Context Protocol 的后端实现,提供对知识图谱资源、工具与提示模板的托管与查询,通过 JSON-RPC(以 STDIO 传输)与 LLM 客户端进行交互,支持本地与云端推理的调度与安全控制。

网页与API

AgentSpec MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具和 Prompt 的标准化管理,并通过 JSON-RPC 与客户端通信;支持 stdio 与 HTTP 传输,具备会话管理、能力声明和多传输协议扩展能力,旨在为 LLM 应用提供安全、可扩展的上下文服务框架。

AI与计算

UNITARES Model Context Protocol 服务端

基于 Model Context Protocol (MCP) 的后端实现,提供对资源的托管与访问、工具的注册/执行,以及 Prompt 模板的定义与渲染。服务器通过 JSON-RPC 与客户端进行交互,支持会话管理、能力声明,并可通过多种传输协议(如标准输出/终端、Server-Sent Events、WebSocket)进行上下文服务与功能调用,为 LLM 应用提供安全、可扩展的上下文服务框架。

AI与计算

Auto Claude MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源/上下文管理、工具注册与调用、以及 Prompts 的定义与渲染,支持多 provider 的上下文桥接与 mesh/循环任务执行,采用 JSON-RPC 通过标准传输(如标准输入/输出)与 MCP 客户端通信。

AI与计算

Sentinel MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,使用 JSON-RPC 规范与客户端通信,提供 MCP 初始化、工具列表以及工具调用等基本服务器端能力,用于向 LLM 客户端暴露资源、工具与提示渲染等上下文服务。

AI与计算

Seline MCP 服务器

基于 Model Context Protocol (MCP) 的本地后端服务,负责以标准化方式向 LLM 客户端暴露资源、工具和提示模板等上下文信息与能力,支持会话管理、能力声明以及跨传输协议的通信。

AI与计算

PatternFly MCP Server

基于 Model Context Protocol 的 MCP 服务器端实现,提供 PatternFly 的资源、工具与文档的统一上下文服务,支持多传输协议(STDIO、HTTP/WebSocket 等)、会话管理与能力声明,水平扩展以供 LLM 客户端获取资源、执行工具和渲染 Prompt 模板等上下文信息。

AI与计算

Meta MCP 服务器

一个用于 AI 代理的模型上下文协议(MCP)服务器实现,提供资源、工具和提示模板等上下文服务,并通过 JSON-RPC 与客户端进行交互。

AI与计算

Minds AI MCP 服务器实现

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具和提示模板的标准化管理与对外接口,支持 HTTP 与 STDIO 等传输模式,面向大语言模型客户端的上下文服务。

网页与API

InfoMosaic MCP 服务器框架

InfoMosaic 提供基于 Model Context Protocol (MCP) 的服务器端实现框架,能够托管资源、注册并执行工具、定义并渲染提示模板,并通过多种传输方式对外提供上下文服务与能力声明。

AI与计算

MCP 后端服务器实现(Alex 系列多组件协作)

基于 Model Context Protocol (MCP) 的后端服务器实现,承载资源、工具和提示模板,并通过 JSON-RPC 与 LLM 客户端进行标准化交互,支持多种传输模式,便于向 LLM 客户端提供统一的上下文信息和功能入口。