← 返回首页

"AI 代码协作"标签的搜索结果

找到 1 个结果

Linggen MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供以标准化方式向 LLM 客户端提供上下文信息和功能的能力。通过 JSON-RPC 与客户端通信,核心包含工具注册/执行、提示模板渲染,以及与资源/查询接口的集成。当前实现使用 stdio 传输,在服务端对接 Linggen 后端 API 提供的能力,支撑 LLM 在设计、索引与查询场景中的上下文服务。