基于 Model Context Protocol (MCP) 的后端实现,提供工具注册与执行、资源管理及与飞书与 Cursor CLI 集成的上下文服务,通过 JSON-RPC 与客户端通信,支持通过 STDIO 传输的 MCP 服务。
基于 FastAPI 框架的 Agent2Agent (A2A) 协议服务器模板,用于快速构建可与 LLM 客户端交互的智能体服务后端。
基于Model Context Protocol,此仓库提供了一个集成Google Gemini Pro模型的MCP服务器,允许LLM客户端调用Gemini Pro的文本生成能力。