← 返回首页

"AI上下文服务"标签的搜索结果

找到 17 个结果

AIPartnerUpFlow MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源与工具的托管、权限化访问,以及 Prompt 模板的定义与渲染,外部通过 JSON-RPC 进行通信,支持多种传输协议(如 HTTP/WS/SSE),用于向 LLM 客户端提供可扩展的上下文服务与工具调用能力。

Agent Assistant MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供工具注册、资源管理和提示模板渲染等核心能力,通过 JSON-RPC/Connect 框架与 MCP 客户端进行标准化通信,支持多个传输和会话能力,服务端还与前端 Web 界面和后端资源/工具链进行协作。

JSON to Excel MCP by WTSolutions

基于 Model Context Protocol (MCP) 的后端服务,实现了资源管理、工具注册与执行以及提示渲染等核心 MCP 功能,提供将 JSON 转换为 CSV 的工具与相关提示,用于向大型语言模型(LLM)客户端提供上下文与外部功能调用能力。

Computer MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)管理、工具(Tools)注册与执行、以及提示模板(Prompts)渲染,支持 stdio、Web 服务等传输协议,通过 JSON-RPC 与 MCP 客户端通信,向大模型客户端提供上下文、数据访问、外部功能调用等能力。

Fastly MCP Server

基于 Model Context Protocol 的 MCP 服务器端实现,作为 AI 助手的后端上下文服务,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等功能,支持通过 JSON-RPC 与客户端通信,并可在 stdio、HTTP(含 SSE)等传输模式下运行,具备会话管理、能力声明和安全保护机制。

Manifest MCP 服务生成与托管平台

一个用于生成、管理和托管基于 Model Context Protocol (MCP) 的AI代理服务器的平台,可将数据库和文件资源暴露给LLM客户端作为工具和上下文。

Theoria - 神学研究引擎

Theoria 是一个现代神学研究引擎,能索引个人图书馆、规范圣经引文、提供AI洞察,并作为MCP服务器为LLM应用提供上下文服务。

Azure Terraform模块上下文服务器

这是一个MCP(Model Context Protocol)服务器,能够为AI智能体提供Azure Terraform模块的索引、高级分析、代码搜索和管理服务。

统一MCP智能服务器

结合向量搜索、知识图谱和网页智能,为AI应用提供强大的上下文信息与功能调用服务。

robodog MCP 服务器

robodog MCP 服务器是一个轻量、快速、零安装的上下文服务后端,为AI客户端提供文件资源管理、AI工具调用、Prompt模板渲染等功能,支持JSON-RPC通信和多种传输协议。

Semiont - 语义知识平台

一个AI驱动的语义知识平台,从非结构化内容中自动提取知识图谱,为RAG系统提供丰富的上下文理解和LLM集成服务,其中包含一个符合MCP协议的核心服务器模块。

MCP多语言上下文协议服务器

提供Python、Go、Rust三种语言实现的生产级Model Context Protocol (MCP) 服务器,旨在标准化AI系统与工具间的交互,支持VS Code集成。

Python MCP 服务器与客户端

基于Python实现模型上下文协议(MCP)服务器,提供文档搜索工具功能,支持Stdio和SSE传输协议。

MCP求职者信息服务器示例

一个基于MCP协议的服务器,用于向AI提供求职者简历、网站等结构化和非结构化信息作为上下文。

PostgMem: 基于MCP的向量记忆服务器

使用PostgreSQL和pgvector为AI应用提供向量记忆存储和语义搜索的MCP服务器。

Rodel Agent MCP服务器

Rodel Agent桌面应用内嵌MCP服务器,为MCP客户端提供上下文服务和AI功能,同时具备独立的AI助手应用功能。

mcp attr

mcp-attr 是一个 Rust crate,旨在通过声明式属性和类型系统,简化 Model Context Protocol (MCP) 服务器的创建,方便开发者和 AI 构建 MCP 后端应用。