基于 Model Context Protocol (MCP) 的后端上下文服务实现,提供资源管理、工具注册与执行、以及 Prompts 渲染等能力,通过 JSON-RPC 与客户端通信,支持标准传输(如 Stdio 传输)以提供对话上下文和外部功能的统一访问。
一个MCP服务器,通过工具集成Pinecone Assistant,为LLM应用提供来自Pinecone知识库的上下文信息检索能力。
基于 Model Context Protocol (MCP) 的后端上下文服务实现,提供资源管理、工具注册与执行、以及 Prompts 渲染等能力,通过 JSON-RPC 与客户端通信,支持标准传输(如 Stdio 传输)以提供对话上下文和外部功能的统一访问。
一个MCP服务器,通过工具集成Pinecone Assistant,为LLM应用提供来自Pinecone知识库的上下文信息检索能力。