找到 5 个结果
基于 Model Context Protocol (MCP) 的服务器实现,为 AI Agent 提供长时记忆、工具执行和资源管理能力,并通过 JSON-RPC 与 LLM 客户端进行交互,支持多种传输通道(如 StdIO、SSE、WebSocket)。
一个将 Brian 知识库功能暴露为 MCP (Model Context Protocol) 服务的后端实现。通过 JSON-RPC 形式与客户端交互,提供资源管理、工具执行、以及基于知识库的上下文拼接与推理支持,便于 LLM 客户端(如 Goose)进行外部知识查询与操作。
基于 Model Context Protocol (MCP) 的后端服务器,为 LLM 客户端提供对瑞士法院判例数据的资源访问与工具调用,通过 JSON-RPC 在标准输入输出(stdio)传输,与客户端进行交互,支持搜索、获取判决、统计等功能。
基于 Model Context Protocol 的 MCP 服务器实现,用于向大语言模型客户端提供包生态数据的上下文和查询工具;在本地 SQLite 数据库可用时优先使用本地数据,无法时回退到远端 API;通过 JSON-RPC 提供工具调用、健康检查等能力,支持标准的 stdio 通道进行通信。
基于模型上下文协议(MCP)的后端服务,实现了通过标准 JSON-RPC 对外提供资源管理、工具注册与执行、以及上下文相关提示/工作流的能力。该实现以 stdio 为传输介质,供 LLM 客户端(如 Claude Code、Cursor、Gemini CLI、Codex CLI 等)调用并集成到软件工程场景的推理与协作中,内部使用 SQLite DB 存储知识组件与工作流状态,支持多阶段的 FP F(First Principles Framework)推理循环。