基于 Model Context Protocol (MCP) 的后端服务器,实现对资源、工具和提示模板的注册与暴露,供 LLM 客户端通过 JSON-RPC 与之通信,从而向客户端提供可验证的代码上下文、外部功能调用与自定义提示渲染能力,并支持流式传输的 MCP 应用接口。
为AI助手提供高性能Protocol Buffer定义索引、搜索和类型解析服务,通过MCP协议无缝集成。
将NPM、Go Modules和PyPi包的Markdown文档作为MCP服务器的资源或工具提供,为LLM应用提供代码上下文。
Code2Prompt作为MCP服务器,将代码库转换为结构化Prompt,为LLM提供代码上下文,支持资源管理和Prompt模版定制。