找到 1 个结果
面向大语言模型的后端MCP服务器,实现通过JSON-RPC向LLM客户端提供资源、工具和Prompt相关的上下文服务,支持跨GitHub、Jira、Confluence的数据获取与操作,以及会话管理与多传输协议接入的能力。