← 返回首页

"AI后端"标签的搜索结果

找到 36 个结果

TN节点 (TRUF.NETWORK Kwil数据库节点)

基于 Kwil 框架构建的 TRUF.NETWORK 核心数据库层,为 AI 客户端提供上下文数据访问、工具调用及 Prompt 模板服务。

WP Loupe MCP 服务器

为WordPress网站提供增强搜索能力,并以Model Context Protocol (MCP) 格式向外部AI代理提供内容和功能服务。

Context7

Context7 是一个基于 Model Context Protocol (MCP) 的服务器,为 AI 应用提供上下文信息和智能辅助能力。

Searchcraft MCP 服务器

为LLM应用提供Searchcraft集群管理和搜索功能,通过MCP协议标准化地提供资源和工具服务。

McpMesh - MCP服务器聚合器

McpMesh是一款将多个Model Context Protocol (MCP) 服务器的功能聚合到一个统一HTTP API的工具,为LLM客户端提供集成的上下文和工具服务。

Telegram通知MCP后端服务

为LLM客户端(如Claude Code)提供Telegram通知功能的MCP后端服务,通过MCP协议发送消息到Telegram。

Golf:简易MCP服务器构建框架

Golf是一个Python框架,通过约定俗成的目录结构定义工具、资源和Prompt,自动构建可运行的FastMCP服务器,大幅简化LLM应用后端开发。

mcp-php-server

基于PHP实现的Model Context Protocol (MCP) 服务器,为LLM提供上下文和工具能力。

Excom - Elixir MCP

基于Elixir语言实现的MCP服务器,为LLM提供上下文和功能服务。

Firelynx MCP服务器

可脚本化的MCP服务器,为AI应用提供定制工具、资源和Prompt能力。

ExMCP: Elixir MCP 实现

基于 Elixir 语言,提供完整的 Model Context Protocol (MCP) 客户端和服务器实现,赋能 AI 模型安全交互。

MCP (Model Control Protocol) 服务器

基于 Model Context Protocol 构建的模块化服务器,用于管理AI模型、注册工具、提供上下文服务。

Neo4j 知识图谱记忆服务器

一个基于 Neo4j 数据库的 MCP 服务器,为大型语言模型提供知识图谱存储与检索能力。

Evo AI

开源AI代理平台,作为兼容MCP/A2A协议的后端提供代理服务及工具集成。

KuzuMem-MCP

一个基于KùzuDB图谱数据库构建的TypeScript MCP服务器,为AI提供知识存储和图谱分析工具。

Context Portal (ConPort)

基于MCP协议,为LLM客户端提供结构化项目上下文的后端服务,支持决策、进度、模式、自定义数据管理和知识图谱构建。

HTTP Privacy

多语言AI后端,通过集成MCP协议库提供LLM上下文服务(资源、工具)。

Flux

基于MCP协议,提供与AO(Arweave计算层)交互的AI工具集服务器。

AI客户支持机器人MCP服务器

基于MCP协议,为AI客户支持机器人提供上下文信息和智能回复功能的后端服务。

Go语言版MCP服务器框架

基于Model Context Protocol (MCP),提供Go语言实现,用于构建标准化的AI应用后端,连接应用与AI模型。

Vectra MCP服务器

将Vectra知识库功能封装为MCP工具,提供给大型语言模型(LLM)客户端使用。

MCP协议应用实践

通过实战案例演示构建基于Model Context Protocol的AI后端服务,连接大模型与外部能力。

语音助手服务器

为大语言模型客户端提供语音(文本转语音、语音转文本)能力的MCP服务器。

MCP Agent Server

连接AI客户端与智能代理的MCP中心,通过工具提供多样的AI能力和上下文。

PHP MCP Server

核心PHP库,用于构建符合Model Context Protocol (MCP)标准的服务器,轻松将PHP应用逻辑暴露给LLM客户端。

Confluence MCP 服务器

通过 MCP 协议将 Confluence Cloud 功能暴露为 LLM 可调用的工具服务。

MCP API 网关

提供多用户、安全密钥管理的Model Context Protocol服务器HTTP网关。

MindBridge MCP Server

MindBridge MCP Server 作为一个AI路由中心,通过模型上下文协议连接多种LLM,提供统一的上下文服务和工具能力。

Epic MCP 示例服务器

基于Epic Stack构建的MCP服务器示例,展示如何通过工具和SSE为LLM提供上下文信息。

Go-MCP:模型上下文协议Go语言实现

Go-MCP 是一个 Go 语言 SDK,用于构建和交互 Model Context Protocol (MCP) 应用,支持服务端和客户端实现。

mcp

用于构建 Model Context Protocol (MCP) 服务器的 Rust 库,提供标准化的 AI 模型上下文交换能力。

MINDY MCP 服务器

MINDY MCP 服务器是一个基于 Model Context Protocol 的 PostgreSQL 实现,为 AI 模型提供资源管理和上下文数据访问能力,支持 Supabase 数据库。

template mcp server

用于快速搭建MCP服务器的模板项目,支持通过标准输入输出和HTTP协议与客户端通信,并可扩展资源、工具和Prompt模板功能。

orq node

orq-node 是一个开发者友好的 Typescript SDK,同时也是一个可安装的 MCP 服务器,旨在为 LLM 应用提供资源、工具和 Prompt 管理能力,简化 AI 应用的后端开发。

mcp typed prompts

mcp-typed-prompts仓库是一个Python实现的Model Context Protocol (MCP) SDK,它不仅包含了构建MCP客户端的工具,也提供了FastMCP服务器框架,用于快速搭建和运行MCP后端服务,以标准化方式向LLM应用提供资源、工具和Prompt模板。

spring ai mcp

Spring AI MCP仓库为Java开发者提供了构建Model Context Protocol (MCP) 服务器和客户端的SDK及Spring框架集成方案。