使用说明(Markdown 格式)
-
项目简介
- 该仓库实现了一个基于 Model Context Protocol (MCP) 的后端服务器,用于语言本地化场景。它提供一组可被 LLM 客户端调用的工具,用以检测语言资源、评估翻译状态、进行翻译同步以及查看差异等操作。服务器通过 MCP 标准接口与客户端进行交互,支持多种传输方式(如标准输入输出(Stdio)等)。
-
主要功能点
-
list_local_locales:扫描项目中的 locale 文件、自动检测 i18n 框架,返回语言、文件、键数等信息。
-
get_translation_status:将源语言与目标语言对比,找出缺失/过时的键,并给出翻译成本估算。
-
sync_translations:通过 LangAPI 服务进行翻译同步,提供 dry_run 预览与实际执行两种模式,并可按语言写回本地文件、支持跳过特定键。
-
get_diff:对比当前源语言的本地内容与上次同步的缓存,输出新增、变更、未变和移除的键及汇总统计。
-
语言资源检测与框架支持
- 自动检测 next-intl、i18next、react-intl 等常见 i18n 框架以及通用模式,定位 locale 文件。
- 支持跨项目的分布式语言文件结构,能够保留命名空间和格式。
-
-
安装步骤
- 使用 npm(推荐):npm install @langapi/mcp-server
- 也可以直接使用 npx 运行:npx @langapi/mcp-server
- 该服务器默认通过标准输入输出(Stdio)与 MCP 客户端通信,便于在各种工具链中接入。
-
服务器配置(供 MCP 客户端使用的配置示例,JSON 格式,含 server 名称、启动命令和参数等)
- 服务器名称:langapi-mcp-server
- 启动命令示例(客户端启动此 MCP 服务器所需的最小信息):
- 配置示例(JSON,注意仅作说明,实际使用时请按需调整):
{
"serverName": "langapi-mcp-server",
"command": "npx",
"args": ["@langapi/mcp-server"],
"env": {
"LANGAPI_API_KEY": "your-api-key-here",
"LANGAPI_API_URL": "https://api.langapi.io"
}
/**
说明:
- serverName: MCP 服务器的标识名称,与客户端配置中的 serverName 对应,用于区分多服务器场景。
- command/args: 客户端启动此 MCP 服务器所用的命令和参数。此仓库建议使用 npx @langapi/mcp-server 作为启动方式,自动拉取并运行打包后的服务器。
- env: 环境变量,LANGAPI_API_KEY 必填,用于 LangAPI 认证;LANGAPI_API_URL 可选,用于自建/自托管的 API 地址。 */ }
-
基本使用方法
- 启动服务器
- 在支持 MCP 的客户端(如特定 IDE 插件、Cursor/Claude 集成等)中按照上面的启动参数配置,确保环境变量 LANGAPI_API_KEY 已正确设置。
- 使用客户端的“连接 MCP 服务器”或等效操作,选择 serverName 为 langapi-mcp-server 的配置。
- 调用工具
- 通过 MCP 客户端向服务器发送 JSON-RPC 风格的请求,调用上述工具(list_local_locales、get_translation_status、sync_translations、get_diff)。
- 通过 Dry Run(dry_run = true)先预览变更和成本,再决定是否执行实际同步。
- 读取/写入本地文件
- 同步时,服务器会在需要时写回本地语言文件(若 write_to_files 为 true 且权限允许)。
- 安全性与配置
- LangAPI 的 API Key 通过 LANGAPI_API_KEY 环境变量提供,确保不在配置中暴露敏感信息。
- 启动服务器
-
使用要点
- 该 MCP 服务器实现了资源管理、工具注册、以及与 LangAPI 的交互逻辑,适合用作嵌入到 LLM 宏/工作流中的后端上下文服务。
- 服务器具备本地检测、增量同步、缓存差异等功能,能提升大规模本地化项目的效率与成本控制。
信息
分类
AI与计算