← 返回首页

"对话上下文"标签的搜索结果

找到 6 个结果

Nucleus MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,将 LLM 客户端对资源、工具、Prompt 等的标准化请求通过 JSON-RPC 转发给 nucleus-tool-proxy,并返回相应的 JSON-RPC 响应,支持审批、会话标识等能力。

Promptly MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供会话日志记录、资源与工具的注册与执行、以及对话 Prompts 的渲染与管理,并通过 JSON-RPC 与 MCP 客户端进行通信,支持本地环境下的 Stdio 传输(并具备扩展到其他传输协议的设计)。

lingti-bot MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,面向 LLM 客户端提供本地资源、可注册与执行的工具、以及可渲染的 Prompt 模板等上下文服务,采用 JSON-RPC 形式通信,默认通过 stdio 渠道运行并具备多平台扩展能力与会话管理。该仓库实现了完整的 MCP 服务器端逻辑和工具集合,支持资源托管、工具调用、Prompt 渲染等核心功能。

ez-xbow-platform-mcp

基于 Model Context Protocol (MCP) 的后端服务器,向 LLM 客户端提供资源管理、工具执行和提示模板等上下文服务,支持多传输协议、会话管理与本地历史记录,为 AI 驱动的安全挑战赛场景提供后端支撑。

Perplexity WebUI MCP 服务端

基于 Model Context Protocol (MCP) 的 MCP 服务器实现,暴露 Perplexity WebUI 的查询能力给大语言模型客户端,通过 FastMCP 提供工具接口,支持会话、模型映射与网页检索等能力。

Membase MCP 服务器

连接LLM客户端与Membase去中心化内存网络,存储和检索AI会话历史及知识。