找到 6 个结果
基于 Model Context Protocol (MCP) 构建的后端服务,向 LLM 客户端提供资源管理、工具注册/执行、提示模板渲染等能力,支持多模型并发分析、会话管理以及多传输协议,以实现代码审查与分析场景下的上下文服务。
一个多AI编码代理并行协作的框架,提供任务分解、并行执行、代码审查和合并功能,以加速软件开发。
基于MCP协议,允许AI助手在对话或工作中暂停并向人类直接询问上下文信息。
human-mcp 是一个基于 MCP 协议的服务器,它创造性地将人类操作员作为工具集成到 AI 助手的工作流程中,允许 AI 通过工具调用请求人类的感官和操作能力。
一个简单的 MCP 服务器,用于在 LLM 工具工作流中启用人机协作,允许 LLM 在完成任务前请求用户反馈。
基于MCP协议的人机回路服务器,通过多维度评分系统评估AI任务是否需要人工干预。