基于 Model Context Protocol (MCP) 的 JSON-RPC 服务端实现,暴露 plan、log、ask 等工具,并通过 /mcp 接口向客户端提供能力和上下文服务,用于与 LLM 的交互与协作。
基于 Model Context Protocol (MCP) 的后端服务实现,提供资源(任务)的托管与数据访问、工具注册与执行、以及面向 LLM 的提示/上下文渲染能力,并通过 MCP 方式与客户端进行 JSON-RPC 风格的交互,支持流式响应和多种传输场景(如 SSE)。
基于 Model Context Protocol 的可扩展后端,提供资源、工具与提示模板的 MCP 服务,通过 JSON-RPC 与 LLM 客户端交互,支持插件化视觉分析能力和多种传输方式。整个体系以 FastAPI/uv 工具链实现服务器端能力管理与会话管理。
基于 FastAPI 和 FastAPI-MCP 的 MCP 服务器开发框架,旨在帮助开发者快速构建高质量的 AI 工具。
基于 FastAPI 框架的 Agent2Agent (A2A) 协议服务器模板,用于快速构建可与 LLM 客户端交互的智能体服务后端。
一个基于FastAPI构建的MCP服务器,通过HTTP接口提供本地文件系统的读取能力,并集成了Gemini API进行文本处理。
Confluence Gateway 利用AI能力增强 Confluence 搜索和知识检索,未来计划提供 MCP 服务器功能。
基于FastAPI构建的OWL多智能体系统后端,提供RESTful API和WebSocket接口,用于上下文服务。
基于Nginx和FastAPI的高性能MCP服务器,支持WebSocket/SSE协议,集成OpenAPI,用于构建实时LLM应用。