← 返回首页

"AI上下文服务"标签的搜索结果

找到 24 个结果

Yeehaw MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源、工具与提示模板的标准化上下文服务,能与 Claude Code 等 LLM 客户端通过 JSON-RPC 进行交互,向客户端暴露 Yeehaw 项目、服务器、日志、环境变量和知识库等上下文信息,并支持对资源和工具的管理与执行。

StreamNative MCP Server

基于 Model Context Protocol (MCP) 的后端服务,用于向大语言模型(LLM)及其代理提供资源数据、可执行工具以及可定制的 prompts,支持通过 JSON-RPC 与客户端通信,并可通过 stdio、SSE 等传输协议进行多会话场景下的上下文服务整合。该实现整合了 StreamNative Cloud、Apache Kafka 和 Apache Pulsar 等资源与能力,便于 AI 应用访问和操作海量分布式系统。

Local Brain MCP 服务端

基于 Model Context Protocol(MCP)的本地后端实现,向大型语言模型客户端以标准化的 JSON-RPC 方式提供资源管理、工具执行以及提示模板渲染能力,包含会话管理、能力声明,并支持多传输通道(以 stdio 为主)实现一个可扩展的上下文服务框架。

UseAI MCP服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、提示模板渲染,并通过 MCP 外部端点集成远程工具,支持 AG-UI 协议与 JSON-RPC 风格通信,适配多传输通道(如 WebSocket、轮询等)以为 LLM 应用提供安全、可扩展的上下文服务框架。

AskPlex MCP 服务器

AskPlex 基于 Model Context Protocol(MCP)的后端实现,提供工具注册、任务执行和提示模板等能力,并通过 JSON-RPC 与 LLM 客户端交互, bridging 与 Perplexity 实时检索等外部资源的能力。

xsql MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供对 AI 客户端的上下文能力、工具执行与提示渲染等核心能力,通过 JSON-RPC 与客户端通信,并支持多传输协议(如标准输入输出和流式 HTTP)以实现安全、可扩展的后端上下文服务。

Poe Code MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具、提示模板的托管与管理,以及通过 JSON-RPC 与客户端进行通信,支持多传输通道,供大语言模型应用安全、可扩展地获取上下文与外部功能。

AIPartnerUpFlow MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源与工具的托管、权限化访问,以及 Prompt 模板的定义与渲染,外部通过 JSON-RPC 进行通信,支持多种传输协议(如 HTTP/WS/SSE),用于向 LLM 客户端提供可扩展的上下文服务与工具调用能力。

Agent Assistant MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供工具注册、资源管理和提示模板渲染等核心能力,通过 JSON-RPC/Connect 框架与 MCP 客户端进行标准化通信,支持多个传输和会话能力,服务端还与前端 Web 界面和后端资源/工具链进行协作。

JSON to Excel MCP by WTSolutions

基于 Model Context Protocol (MCP) 的后端服务,实现了资源管理、工具注册与执行以及提示渲染等核心 MCP 功能,提供将 JSON 转换为 CSV 的工具与相关提示,用于向大型语言模型(LLM)客户端提供上下文与外部功能调用能力。

Computer MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)管理、工具(Tools)注册与执行、以及提示模板(Prompts)渲染,支持 stdio、Web 服务等传输协议,通过 JSON-RPC 与 MCP 客户端通信,向大模型客户端提供上下文、数据访问、外部功能调用等能力。

Fastly MCP Server

基于 Model Context Protocol 的 MCP 服务器端实现,作为 AI 助手的后端上下文服务,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等功能,支持通过 JSON-RPC 与客户端通信,并可在 stdio、HTTP(含 SSE)等传输模式下运行,具备会话管理、能力声明和安全保护机制。

Manifest MCP 服务生成与托管平台

一个用于生成、管理和托管基于 Model Context Protocol (MCP) 的AI代理服务器的平台,可将数据库和文件资源暴露给LLM客户端作为工具和上下文。

Theoria - 神学研究引擎

Theoria 是一个现代神学研究引擎,能索引个人图书馆、规范圣经引文、提供AI洞察,并作为MCP服务器为LLM应用提供上下文服务。

Azure Terraform模块上下文服务器

这是一个MCP(Model Context Protocol)服务器,能够为AI智能体提供Azure Terraform模块的索引、高级分析、代码搜索和管理服务。

统一MCP智能服务器

结合向量搜索、知识图谱和网页智能,为AI应用提供强大的上下文信息与功能调用服务。

robodog MCP 服务器

robodog MCP 服务器是一个轻量、快速、零安装的上下文服务后端,为AI客户端提供文件资源管理、AI工具调用、Prompt模板渲染等功能,支持JSON-RPC通信和多种传输协议。

Semiont - 语义知识平台

一个AI驱动的语义知识平台,从非结构化内容中自动提取知识图谱,为RAG系统提供丰富的上下文理解和LLM集成服务,其中包含一个符合MCP协议的核心服务器模块。

MCP多语言上下文协议服务器

提供Python、Go、Rust三种语言实现的生产级Model Context Protocol (MCP) 服务器,旨在标准化AI系统与工具间的交互,支持VS Code集成。

Python MCP 服务器与客户端

基于Python实现模型上下文协议(MCP)服务器,提供文档搜索工具功能,支持Stdio和SSE传输协议。

MCP求职者信息服务器示例

一个基于MCP协议的服务器,用于向AI提供求职者简历、网站等结构化和非结构化信息作为上下文。

PostgMem: 基于MCP的向量记忆服务器

使用PostgreSQL和pgvector为AI应用提供向量记忆存储和语义搜索的MCP服务器。

Rodel Agent MCP服务器

Rodel Agent桌面应用内嵌MCP服务器,为MCP客户端提供上下文服务和AI功能,同时具备独立的AI助手应用功能。

mcp attr

mcp-attr 是一个 Rust crate,旨在通过声明式属性和类型系统,简化 Model Context Protocol (MCP) 服务器的创建,方便开发者和 AI 构建 MCP 后端应用。