本项目是一个Model Context Protocol (MCP) 服务器,它将OpenAI的Codex命令行接口(Codex CLI)封装起来,使得基于MCP协议的LLM客户端能够通过标准化的方式访问和利用Codex的代码分析能力。

主要功能点:

  • Codex CLI封装: 提供一个MCP工具,允许LLM调用外部的Codex CLI执行代码分析和处理任务。
  • 代码仓库集成: 支持通过指定Git仓库URL来访问代码,并在仓库内的特定文件夹中执行Codex命令。
  • MCP核心实现: 实现了MCP协议的核心功能,包括注册和执行工具 (Tools),以及基础的资源 (Resources) 和提示模板 (Prompts) 能力。
  • 多种传输协议: 支持Stdio和SSE等MCP标准传输方式。

安装步骤:

  1. 克隆仓库:
    git clone https://github.com/teabranch/agentic-developer-mcp.git
    cd agentic-developer-mcp
  2. 安装Python依赖:
    pip install -e .
  3. 安装Codex CLI: 确保你已经安装了Node.js (建议使用Node 22),然后全局安装Codex CLI。
    npm install -g @openai/codex
    (注意:使用Codex CLI可能需要OpenAI账号和API密钥配置,请参考OpenAI官方文档。)

服务器配置 (供MCP客户端参考):

MCP客户端需要配置如何启动并连接到此服务器。以下是配置概念说明:

  • 服务器名称 (server name): 例如 "Codex CLI MCP Wrapper"
  • 启动命令 (command): 'python' (指定Python解释器路径)
  • 启动参数 (args):
    • 对于Stdio传输(默认):'["-m", "mcp_server"]'
    • 对于SSE传输(假设端口8000):'["-m", "mcp_server", "--transport", "sse", "--port", "8000"]'

基本使用方法:

安装并配置完成后,可以通过配置好的MCP客户端连接到服务器。LLM客户端可以通过调用服务器提供的MCP工具来执行任务。

例如,调用'clone_and_write_prompt'工具(对应README中的'run_codex'功能)来分析一个代码仓库:

  • 客户端构建一个调用此工具的MCP请求,包含以下参数:
    • 'repository' (字符串, 必需):Git仓库的URL。
    • 'request' (字符串, 必需):传递给Codex的请求或Prompt。
    • 'folder' (字符串, 可选):在仓库中操作的子文件夹路径,默认为根目录 '/'。
  • 服务器接收请求后,会执行克隆仓库、读取特定文件('.agent/system.md', '.agent/agent.json')并调用本地的Codex CLI来处理请求,最后将Codex的输出返回给客户端。

此外,客户端也可以访问服务器定义的资源(如'echo://static', 'echo://{text}')和提示模板(如'echo')。

信息

分类

开发者工具