标签搜索结果
基于 Model Context Protocol (MCP) 的后端服务器实现,提供向 LLM 客户端按标准化方式暴露资源、工具与 Prompt 模板的能力。服务器通过 JSON-RPC 风格的协议与客户端交互,支持本地代码索引、插件化语言工具、语义检索以及可扩展的上下文服务,适用于在本地环境或容器中为 AI 助手提供代码理解与上下文数据。