项目简介
'platform-roi' 仓库的核心是一个平台工程投资回报率 (ROI) 计算器。除了提供一个交互式的Web UI (platformetrics.com/platform-roi.html),它还包含一个专门的MCP服务器实现。这个MCP服务器基于Model Context Protocol (MCP) 规范,旨在允许大型语言模型 (LLM) 客户端以标准化的方式访问其核心ROI计算功能,从而实现自动化分析和决策支持。它托管了多个工具,用于分析当前状况、计算单一策略的ROI以及比较多种策略。
主要功能点
- 平台工程ROI计算: 根据团队规模、薪资、琐事时间、AI采用水平、部署频率、行业、技术债务和分析时间跨度等输入参数,计算开放源码、AI增强混合和AI原生三种平台策略的投资回报率。
- 策略比较与推荐: 比较不同平台策略的成本、收益、净值和ROI,并提供基于计算结果的推荐。
- 当前状况分析: 评估当前的年度生产力损失、效率差距和AI带来的潜在改进机会。
- 标准化LLM接口: 通过JSON-RPC和Stdio传输协议,以结构化的方式向LLM客户端暴露上述计算能力。
安装步骤
- 克隆仓库:
git clone https://github.com/achankra/platform-roi.git cd platform-roi/mcp-server - 安装依赖:
npm install - 构建项目:
这将会在 'dist' 目录下生成可执行的JavaScript文件 'index.js'。npm run build
服务器配置 (供MCP客户端使用)
MCP客户端需要以下JSON配置来连接并使用此服务器:
{ "name": "platform-roi-mcp-server", "command": "node", "args": [ "path/to/your/cloned/repo/platform-roi/mcp-server/dist/index.js" // 请将 "path/to/your/cloned/repo" 替换为你实际的仓库路径 ], "description": "平台工程投资回报率计算器的MCP服务器实现,用于通过LLM进行ROI分析。", "tools": [ { "name": "calculate_platform_roi", "description": "计算不同平台工程策略(开放源码、AI混合、AI原生)的投资回报率", "inputSchema": { "type": "object", "properties": { "teamSize": { "type": "number", "description": "团队工程师数量,默认值5", "minimum": 1, "maximum": 1000 }, "avgSalary": { "type": "number", "description": "平均工程师年薪(含福利,美元),默认值120000", "minimum": 50000, "maximum": 300000 }, "toilHours": { "type": "number", "description": "每周手动操作工作时间,默认值8", "minimum": 0, "maximum": 40 }, "currentAI": { "type": "string", "description": "当前AI工具采用水平,可选值: none, basic, advanced, expert,默认值none", "enum": ["none", "basic", "advanced", "expert"] }, "aiReadiness": { "type": "string", "description": "团队对新AI工具的采用能力,可选值: low, intermediate, high, expert,默认值intermediate", "enum": ["low", "intermediate", "high", "expert"] }, "deployFreq": { "type": "string", "description": "当前部署频率,可选值: monthly, weekly, daily,默认值weekly", "enum": ["monthly", "weekly", "daily"] }, "industry": { "type": "string", "description": "行业(影响合规性),可选值: general, financial, healthcare, startup,默认值general", "enum": ["general", "financial", "healthcare", "startup"] }, "techDebt": { "type": "string", "description": "遗留技术债务水平,可选值: low, medium, high, very-high,默认值medium", "enum": ["low", "medium", "high", "very-high"] }, "timeHorizon": { "type": "number", "description": "ROI分析的时间跨度(年),默认值3", "minimum": 1, "maximum": 5 } }, "required": [] } }, { "name": "compare_platform_strategies", "description": "比较所有三种平台策略并获取推荐", "inputSchema": { "type": "object", "properties": { "teamSize": { "type": "number", "default": 5 }, "avgSalary": { "type": "number", "default": 120000 }, "toilHours": { "type": "number", "default": 8 }, "currentAI": { "type": "string", "enum": ["none", "basic", "advanced", "expert"], "default": "none" }, "aiReadiness": { "type": "string", "enum": ["low", "intermediate", "high", "expert"], "default": "intermediate" }, "deployFreq": { "type": "string", "enum": ["monthly", "weekly", "daily"], "default": "weekly" }, "industry": { "type": "string", "enum": ["general", "financial", "healthcare", "startup"], "default": "general" }, "techDebt": { "type": "string", "enum": ["low", "medium", "high", "very-high"], "default": "medium" }, "timeHorizon": { "type": "number", "default": 3 } }, "required": [] } }, { "name": "get_current_situation_analysis", "description": "分析当前生产力损失和AI机会", "inputSchema": { "type": "object", "properties": { "teamSize": { "type": "number", "default": 5 }, "avgSalary": { "type": "number", "default": 120000 }, "toilHours": { "type": "number", "default": 8 }, "currentAI": { "type": "string", "enum": ["none", "basic", "advanced", "expert"], "default": "none" } }, "required": [] } } ] }
基本使用方法
MCP服务器通过Stdio与MCP客户端通信。一旦MCP客户端连接并配置了上述服务器,它可以通过调用服务器提供的工具来执行ROI计算和分析:
- 列出工具: MCP客户端可以发送 'mcp/tools/list' 请求来获取所有可用工具('calculate_platform_roi', 'compare_platform_strategies', 'get_current_situation_analysis')及其详细的输入参数 schema。
- 调用工具: MCP客户端根据需要选择一个工具,并发送 'mcp/tools/call' 请求,附带符合该工具 'inputSchema' 的参数。
- 例如,要计算特定配置下的ROI,客户端可以调用 'calculate_platform_roi' 工具,并提供 'teamSize'、'avgSalary' 等参数。
- 要获得策略比较和推荐,客户端可以调用 'compare_platform_strategies'。
- 要分析当前生产力状况,客户端可以调用 'get_current_situation_analysis'。
- 接收结果: 服务器会处理请求,执行相应的计算逻辑,并通过JSON-RPC响应将结果返回给客户端。结果通常以结构化的JSON字符串或Markdown格式的文本呈现,LLM客户端可以进一步解析和利用这些信息。
信息
分类
AI与计算