← 返回首页

"LLM后端服务"标签的搜索结果

找到 15 个结果

Tidewave Python MCP服务器

Tidewave是一个基于Python的MCP服务器,深度集成Django、Flask和FastAPI框架,为LLM提供上下文信息、工具调用和模板调试能力。

XMRT.io AI生态协调中心

XMRT.io AI生态协调中心是一个基于Model Context Protocol (MCP)构建的后端服务,为LLM客户端提供实时上下文、工具调用及多AI智能体交互能力。

Laravel MCP 应用开发套件

基于 Laravel 框架构建的模型上下文协议 (MCP) 服务器和 OpenAI 兼容应用的开发入门套件。

MCP Forge Python

基于Python实现的生产级模型上下文协议(MCP)服务器模板,提供上下文管理、工具调用和Prompt交互功能,并集成了OAuth 2.0和JWT认证。

Cloudflare Agents MCP 服务骨架

提供基于Cloudflare Workers的MCP服务器实现模板,支持资源托管、工具执行和Prompt模板渲染,为LLM应用提供标准化上下文服务。

Pragmatic Model Context Protocol (PMCP) Rust SDK

基于Rust高性能和安全性构建的Model Context Protocol (MCP) SDK,提供全面的服务器和客户端实现,支持多种传输协议和核心MCP功能,助力LLM应用开发。

MCP服务器快速启动模板

为构建基于Model Context Protocol (MCP) 的AI助手上下文服务器提供快速启动模板,支持工具、资源和Prompt的集成与管理。

Azure MCP 服务器

一个可扩展的MCP服务器,用于向LLM客户端提供Azure资源访问、工具调用和最佳实践建议,支持多种工具加载模式。

Servidor MCP Livraria em .NET

Um servidor Model Context Protocol (MCP) em .NET que permite a LLMs acessar e gerenciar dados de uma livraria através de ferramentas.

MCP代理服务器

将多个MCP服务器聚合为一个统一接口,提供工具、资源和提示能力给LLM客户端。

Zig MCP 服务器

一个高性能、内存效率高的 MCP (Model Context Protocol) 服务器实现,使用 Zig 语言构建。

基于Spring AI的MCP天气服务示例

一个基于Spring AI和MCP协议实现的后端服务,提供天气预报和警报查询工具。

MCP网关

MCP网关作为反向代理,统一客户端入口,转发请求至后端MCP服务器,实现多MCP服务器的集中管理和访问。

MCP多功能服务平台

MCP多功能服务平台是一个后端服务,为大型语言模型提供文件、数据库、API和向量数据库等资源的访问和管理能力,支持LLM应用构建。

Columbia MCP Servers

Columbia MCP Servers仓库是为LLM应用构建的后端服务,基于Model Context Protocol (MCP) 提供资源管理、工具注册和Prompt模板服务,支持Docker部署和高可用架构。