项目简介
这个项目是一个基于 Model Context Protocol (MCP) 的服务器,专门用于从 .NET 解决方案中提取接口、模型、实体和枚举等结构信息。它通过调用外部 PowerShell 脚本来完成分析工作,然后将结果以标准化的 JSON 格式通过 MCP 协议提供给兼容的 AI 客户端(如 LLM)。
主要功能点
- 从任何 .NET 解决方案中提取数据模型、实体和枚举的结构信息。
- 获取 .NET 解决方案中的接口定义和相关的 OpenAPI 信息。
- 为 AI 代理提供大型项目的结构和抽象层面的上下文,提高AI对代码库的理解能力。
- 支持标准 MCP stdio 传输协议,可与任何兼容的 AI 工具集成。
- 具备基本的缓存机制和详细的日志记录。
安装步骤
- 确保你的系统安装了 .NET 9.0 SDK 或更高版本,以及 PowerShell 7.0+ ('pwsh' 命令可在 PATH 中找到)。
- 克隆项目仓库到本地,例如:'git clone https://github.com/RaRdq/RR.MCP.git'
- 打开命令行或终端,进入克隆的项目根目录。
- 运行 'dotnet build' 命令编译项目。
服务器配置 (供MCP客户端参考)
要让 MCP 客户端(如 AI 编辑器)连接并使用此服务器,需要在客户端的 MCP 配置中添加一个服务器条目。配置通常是一个 JSON 对象,指定服务器的名称、启动命令和参数。
例如,一个典型的配置条目可能看起来像这样(请将 '/path/to/your/RR.MCP' 替换为你实际克隆项目的路径):
{ "rr-mcp": { "command": "dotnet", "args": ["run", "--project", "/path/to/your/RR.MCP/RR.MCP.csproj"] } }
这里的 'command' 指定了启动服务器的可执行文件 ('dotnet'),而 'args' 提供了传递给该命令的参数,告诉 'dotnet' 运行指定路径下的 '.csproj' 项目。
客户端会使用此配置通过标准输入/输出来启动和与服务器通信。
基本使用方法
启动服务器后,兼容的 AI 客户端将能够发现服务器提供的工具。你可以指示 AI 调用这些工具,并传入 .NET 解决方案文件 ('.sln') 的路径作为参数。
- 指示 AI 调用名为 'GetInterfaces' 的工具,并提供 'solutionFile' 参数,以获取解决方案的接口和相关的 OpenAPI 信息。
- 指示 AI 调用名为 'GetData' 的工具,并提供 'solutionFile' 参数,以获取解决方案中的模型、实体和枚举的结构信息。
AI 客户端会通过 MCP 协议调用这些工具,服务器会执行相应的分析脚本并返回结果。
信息
分类
开发者工具