本项目是一个Model Context Protocol (MCP) 服务器,它将OpenAI的Codex命令行接口(Codex CLI)封装起来,使得基于MCP协议的LLM客户端能够通过标准化的方式访问和利用Codex的代码分析能力。
主要功能点:
- Codex CLI封装: 提供一个MCP工具,允许LLM调用外部的Codex CLI执行代码分析和处理任务。
- 代码仓库集成: 支持通过指定Git仓库URL来访问代码,并在仓库内的特定文件夹中执行Codex命令。
- MCP核心实现: 实现了MCP协议的核心功能,包括注册和执行工具 (Tools),以及基础的资源 (Resources) 和提示模板 (Prompts) 能力。
- 多种传输协议: 支持Stdio和SSE等MCP标准传输方式。
安装步骤:
- 克隆仓库:
git clone https://github.com/teabranch/agentic-developer-mcp.git cd agentic-developer-mcp - 安装Python依赖:
pip install -e . - 安装Codex CLI:
确保你已经安装了Node.js (建议使用Node 22),然后全局安装Codex CLI。
(注意:使用Codex CLI可能需要OpenAI账号和API密钥配置,请参考OpenAI官方文档。)npm install -g @openai/codex
服务器配置 (供MCP客户端参考):
MCP客户端需要配置如何启动并连接到此服务器。以下是配置概念说明:
- 服务器名称 (server name): 例如 "Codex CLI MCP Wrapper"
- 启动命令 (command): 'python' (指定Python解释器路径)
- 启动参数 (args):
- 对于Stdio传输(默认):'["-m", "mcp_server"]'
- 对于SSE传输(假设端口8000):'["-m", "mcp_server", "--transport", "sse", "--port", "8000"]'
基本使用方法:
安装并配置完成后,可以通过配置好的MCP客户端连接到服务器。LLM客户端可以通过调用服务器提供的MCP工具来执行任务。
例如,调用'clone_and_write_prompt'工具(对应README中的'run_codex'功能)来分析一个代码仓库:
- 客户端构建一个调用此工具的MCP请求,包含以下参数:
- 'repository' (字符串, 必需):Git仓库的URL。
- 'request' (字符串, 必需):传递给Codex的请求或Prompt。
- 'folder' (字符串, 可选):在仓库中操作的子文件夹路径,默认为根目录 '/'。
- 服务器接收请求后,会执行克隆仓库、读取特定文件('.agent/system.md', '.agent/agent.json')并调用本地的Codex CLI来处理请求,最后将Codex的输出返回给客户端。
此外,客户端也可以访问服务器定义的资源(如'echo://static', 'echo://{text}')和提示模板(如'echo')。
信息
分类
开发者工具