找到 2 个结果
基于 Model Context Protocol (MCP) 的后端服务,面向 LLM 客户端提供本地资源、可注册与执行的工具、以及可渲染的 Prompt 模板等上下文服务,采用 JSON-RPC 形式通信,默认通过 stdio 渠道运行并具备多平台扩展能力与会话管理。该仓库实现了完整的 MCP 服务器端逻辑和工具集合,支持资源托管、工具调用、Prompt 渲染等核心功能。
一个为AI代码助手设计的本地语义代码搜索服务器,让AI能够理解并智能搜索你的代码库。