返回首页

"LLM orchestration" 标签

3 个结果

标签搜索结果

AI与计算

Live Memory MCP 服务器

基于 Model Context Protocol 的多代理内存管理后端,用于向大语言模型客户端提供上下文、工具与模板,并通过图谱桥接实现长期记忆整合,支持多种传输与 Web 界面访问。

AI与计算

LLM Council MCP Server

基于 Model Context Protocol(MCP)的服务器端实现,提供资源、工具、提示模板管理,并通过 JSON-RPC 与客户端进行上下文与功能协作,支持多传输协议用于与大语言模型客户端对接。

AI与计算

Career Presence MCP 服务器 - JobSpy MCP Server

基于 Model Context Protocol 的后端 MCP 服务器实现,提供跨平台职位搜索、工具执行与提示模板的资源管理与对外服务。