← 返回首页

"AI后端服务"标签的搜索结果

找到 12 个结果

gen-mcp:零代码MCP服务器生成器

gen-mcp 能够通过简单的配置或现有API(如OpenAPI)快速生成并运行Model Context Protocol (MCP) 服务器,即时将任意API、CLI命令或本地数据转换为LLM可调用的资源和工具。

AI Advent Challenge - 智能代理核心服务

一个生产级Model Context Protocol (MCP) 服务器,为LLM客户端提供丰富的AI工具和上下文管理,支持自动化任务、内容摘要及代码分析。

Model-Compose

声明式AI工作流编排器,通过MCP协议将复杂AI服务和模型作为可调用工具提供给LLM客户端。

MCP服务器开发入门与FastMCP实践

该仓库提供Model Context Protocol (MCP) 服务器开发的全面指南,并包含基于FastMCP框架的Python实现示例,演示如何构建、配置和运行MCP工具服务器。

MCP-Use:TypeScript模型上下文协议框架

MCP-Use是一个全面的TypeScript框架,用于构建AI智能体、创建带UI组件的MCP服务器,并提供内置调试器。

Motoko MCP 服务器脚手架

这是一个命令行工具,用于快速生成基于Motoko语言、遵循Prometheus协议的生产级MCP服务器项目。

Easy MCP Server

一个基于Model Context Protocol (MCP) 的动态API框架,能将传统API自动转换为LLM可调用的工具、提供Prompt模板和资源管理,支持多种通信协议。

MCP Proxy Server

模型上下文协议 (MCP) 服务器中心,聚合管理后端 MCP 服务器的能力并暴露统一接口。

Blaxel MCP Python 开发工具包

使用 Python 快速构建符合 Model Context Protocol (MCP) 标准的 AI 后端服务,提供工具和资源能力。

MCP示例服务器集

提供连接大型语言模型(LLM)至数据库(通过WAII)和天气数据的MCP示例服务器代码。

基于Spring Boot的MCP工具服务器

提供基于Model Context Protocol (MCP) 的工具注册与执行服务,支持集成Spring AI工具。

Sagi 领域特定 Prompt 服务

通过MCP协议提供领域特定Prompt模板的后端服务。