基于模型上下文协议(Model Context Protocol,MCP)的后端示例,封装 Shirtify 代理并通过send_message工具向MCP客户端提供上下文对话能力与外部功能调用,支持 SSE/streamable_http 等传输模式的JSON-RPC风格交互。
基于 Model Context Protocol(MCP)的企业级 MCP 服务器实现,提供网络诊断与知识检索等工具的服务端能力,并与图谱编排、工具网关、审计日志等模块协同工作,支持多服务器架构和标准化的 JSON-RPC 交互。
Enso Labs Orchestra是一个基于MCP和A2A协议的AI代理编排后端,为LLM提供上下文、工具和会话管理。
一个基于LangGraph框架和多个MCP Agent,用于自动化AWS成本数据分析和报告生成的应用。
基于 Spring Boot 和 MCP 构建的事件推荐聊天机器人后端,提供资源访问、工具注册和 Prompt 模板渲染等 MCP 核心功能。
基于MCP协议实现的RAG应用服务器,通过工具向LLM客户端提供知识库检索能力,并集成LangChain和LangGraph。
基于LangGraph和MCP协议的智能体工具包,提供Streamlit界面,支持动态添加和管理MCP工具,简化AI智能体与外部数据源和工具的集成。