基于 Model Context Protocol (MCP) 的后端实现,承担资源、工具、 Prompt 模板等的托管与管理,并通过 JSON-RPC 与 LLM 客户端进行通信,提供会话管理、能力声明、以及多传输协议支持(HTTP、SSE、WebSocket)的上下文服务框架,供前端仪表盘、Captain 编排与代理执行组件协同工作。
基于AWS Lambda的serverless MCP服务器,通过HTTP为LLM应用提供工具能力。
基于AWS Lambda的轻量级MCP服务器,通过Serverless Framework快速部署,提供工具注册和执行能力,简化LLM应用上下文管理。
一个基于FastAPI构建的MCP服务器,通过HTTP接口提供本地文件系统的读取能力,并集成了Gemini API进行文本处理。