基于 Model Context Protocol (MCP) 的服务器端实现,用于对代码项目进行上下文分析、向量化检索和外部工具调用的统一管理。通过 JSON-RPC 风格的 MCP 客户端通信,服务器端负责会话管理、能力声明,以及资源(向量/元数据)的托管、工具执行和 Prompt 模板的渲染。实现了完整的 MCP 服务端逻辑(8 个工具),并使用 ChromaDB 进行向量存储、OpenAI 模型进行代码分析与嵌入生成,提供本地 STDIO 传输的运行能力,同时包含一个可选的 Web 管理端供查看和管理索引数据。该实现可直接作为 MCP 服务器使用或作为开发参考与扩展。
基于 Model Context Protocol (MCP) 的后端服务,提供资源管理、工具注册与执行、以及 Prompt 模板渲染,通过 JSON-RPC 与 LLM 客户端交互,支持多传输模式与会话管理。
基于 Chroma MCP,提供 Swift 语言演进提案的检索和访问能力,为 LLM 应用提供 Swift 语言知识库。