← 返回首页

"对话管理"标签的搜索结果

找到 7 个结果

Thread MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器,提供会话线程的托管与管理、工具注册与执行、以及输出格式的渲染;通过 JSON-RPC 与 MCP 客户端通信,支持本地与远程存储,以及通过标准输入输出(stdio)等传输方式进行交互,适用于在 LLM 应用中提供上下文与功能服务。

LingYiProject MCP 服务端

基于模型上下文协议(MCP)的后端服务器,提供资源与工具的托管、远程工具调用、提示模板管理,以及面向LLM客户端的标准化上下文服务,支持多种传输与会话管理模式。

Windsurf Ask Continue MCP 服务器

基于 Model Context Protocol (MCP) 的 Windsurf 专用后端服务,实现“Ask Continue”无限对话工具。服务器提供 MCP 核心能力:托管工具、管理资源、渲染提示模板,并通过标准的通信方式(如 stdio 传输)与 MCP 客户端交互。核心逻辑包含接收 MCP 请求、执行工具调用、并通过 Windsurf 扩展回调获取用户输入以继续对话,支持文本与图片等多模态输入。

FrevaGPT MCP后端服务

基于Model Context Protocol的AI助手后端,提供RAG检索和代码执行工具服务

Frontapp MCP 服务器

连接大型语言模型(LLM)与Frontapp客户沟通平台的MCP服务器,实现自然语言驱动的Frontapp数据访问和工作流自动化。

Copilot Studio智能体直连MCP服务器

通过MCP协议连接Microsoft Copilot Studio智能体,提供工具调用、会话管理和安全认证,实现代码编辑器内AI交互。

AutoGen MCP Server

AutoGen MCP Server是一个基于Model Context Protocol的服务器,它集成了Microsoft AutoGen框架,用于构建和管理多智能体对话应用。