← 返回首页

"AI 后端"标签的搜索结果

找到 9 个结果

Agent Backend MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,能对本地/远程/内存等后端暴露资源、注册工具、渲染提示模板,并通过 MCP 客户端进行标准化的上下文服务与功能调用。

LlamaCloud MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,作为 LLM 客户端的后端上下文服务,提供资源管理、工具注册与执行、以及提示模板渲染等能力;通过 JSON-RPC 与客户端通信,支持多传输(如 STDIO、HTTP),并包含会话管理、能力声明与日志控制等核心特性。

SynthFlow MCP 服务器

基于 Model Context Protocol (MCP) 的本地服务器实现,提供以 JSON-RPC 方式与客户端通信的能力,暴露工具调用入口并可扩展资源与提示等能力

UCAgent MCP Server

基于 Model Context Protocol (MCP) 的后端服务实现。该仓库通过对工具进行 MCP 适配,提供资源管理、工具注册/调用以及提示模板的统一访问,并通过 JSON-RPC/WSS/流式等传输方式与 LLM 客户端进行通信,具备会话管理与能力声明,能够作为 MCP 客户端的服务端实现。

Symfony AI Demo MCP 服务器

一个基于 Symfony 框架构建的 MCP 服务器示例,通过 JSON-RPC 协议向 LLM 客户端提供工具服务。

C# MCP 服务器与客户端演示

基于 C# 和 ASP.NET 实现的 MCP 服务器和客户端示例,演示如何构建 MCP 服务器、注册工具及客户端如何发现和调用这些工具。

花园伙伴 MCP 服务器

一个基于 Cloudflare Worker 实现的 MCP 服务器,提供花园管理工具集。

HTTP + SSE MCP 服务器 (OAuth)

基于MCP协议,实现HTTP/SSE传输协议并集成OAuth认证的MCP服务器参考实现。

Suiware AI 工具 MCP 服务器

基于 Model Context Protocol (MCP),提供一套与 Sui 网络交互的工具集,并作为 MCP 服务器供 LLM 客户端使用。