找到 2 个结果
基于 Model Context Protocol (MCP) 的后端服务器,提供 Google 自定义搜索与网页内容提取的上下文服务,供 LLM 客户端通过 MCP 进行资源读取、工具调用和提示渲染。
基于 Model Context Protocol (MCP) 的后端服务,提供可被大语言模型(LLM)客户端调用的上下文能力与工具,核心功能包含资源管理、工具注册与执行,以及基于模板的 Prompt 渲染。该实现通过 JSON-RPC 形式暴露工具,支持 STDIO 传输,能够为 LLM 客户端提供网页证据检索、页面 excerpts 提取等能力,方便在对话中注入可验证的上下文信息。