一个用于使用 TypeScript 构建和部署 Model Context Protocol (MCP) 服务器的框架,旨在简化 LLM 应用上下文服务开发。
提供基于 Model Context Protocol (MCP) 的示例服务器实现,用于将 ChatGPT 应用与外部系统(如交互式UI小部件)连接。
Deco CMS提供构建AI原生应用的MCP服务器框架,通过标准化协议管理资源、工具和Prompt模板,支持LLM应用上下文服务。
通过 MCP 协议为 AI 应用提供 Tableau 数据、可视化和 Pulse 指标的访问与功能集成。
将企业现有API转换为LLM可调用的MCP工具,利用webMethods集成平台提供安全、标准化的上下文服务。
基于FastMCP框架构建的Model Context Protocol (MCP) 服务器实现,用于将代理能力暴露给大型语言模型客户端。
一个轻量级的本地MCP服务器实现,通过WebSocket和JSON-RPC协议,为LLM客户端提供文本处理和聊天能力。
该项目是基于FastAPI和MCP的Python MCP服务器实现,旨在为LLM客户端提供标准化的上下文交互能力,包括资源管理、工具注册和Prompt模板支持。
MCPheonix 是一个基于 Elixir Phoenix 框架的 MCP 服务器实现,提供资源管理、工具调用和实时事件流等功能,旨在为 AI 模型提供统一的上下文交互接口。