项目简介

AIRAS (Automated Intelligent Research Agent System) 是一个旨在自动化AI研究流程的开源项目。该仓库包含AIRAS系统的核心组件,其中包括一个实现 Model Context Protocol (MCP) 的服务器。这个MCP服务器允许兼容的LLM客户端(如Claude Desktop, VS Code MCP插件)通过标准化的接口调用AIRAS的自动化研究功能。

主要功能点

该MCP服务器作为AI研究自动化系统的接口,使LLM能够:

  • 检索和分析研究论文: 根据关键词搜索并获取最新论文信息(如arXiv、会议网站),提取关键内容(方法、实验、限制等),并作为上下文提供给LLM。
  • 生成研究方法和实验计划: 基于现有论文信息,协助LLM生成新的研究思路、详细的实验步骤和验证策略。
  • 自动化实验执行: 通过集成自动化工具(如Devin AI、GitHub Actions),执行实验代码,并获取实验结果和日志。
  • 自动化论文写作: 利用LLM根据研究过程中的生成物(方法、实验、结果等)自动撰写研究论文草稿(支持LaTeX和HTML格式)。
  • 自动化仓库更新: 将研究过程和结果(如生成的论文、实验日志、图表)自动上传或更新到指定的GitHub仓库分支。

这些功能通过内部复杂的图(基于LangGraph)实现,MCP服务器则提供了调用这些功能的标准化接口。

安装步骤

  1. 确保您已安装 'uv' 包管理器(推荐)。
  2. 克隆AIRAS GitHub仓库到您的本地机器:
    git clone https://github.com/auto-res/airas.git
    cd airas
  3. 安装项目及其MCP相关依赖:
    uv sync --extra mcp
  4. 设置必要的环境变量。AIRAS依赖于多个外部服务(如OpenAI, Devin AI, Firecrawl, GitHub, Vertex AI)的API密钥。创建一个 '.env' 文件在仓库根目录,并按需填入以下环境变量:
    GITHUB_PERSONAL_ACCESS_TOKEN=your_github_token
    DEVIN_API_KEY=your_devin_api_key
    FIRE_CRAWL_API_KEY=your_firecrawl_api_key
    OPENAI_API_KEY=your_openai_api_key
    VERTEX_AI_API_KEY=your_vertex_ai_api_key # Gemini related features might need this
    请参考 'src/airas/utils/check_api_key.py' 文件了解所有可能需要的密钥。

服务器配置(用于MCP客户端)

为了让MCP客户端(如Claude Desktop、Visual Studio Code的MCP插件)能够连接和使用此服务器,您需要在客户端中进行配置。配置信息通常是一个JSON对象,指定服务器的名称、通信类型和启动命令。

以下是一个典型的JSON配置示例,您需要根据您的实际仓库路径进行修改:

{
    "mcpServers": {
        "researchgraph": {  // 服务器名称,客户端将用此名称引用
            "type": "stdio", // 通信协议类型,此处使用标准输入输出
            "command": "uv", // 启动服务器的可执行命令
            "env": {
                "UV_ENV_FILE": "/PATH/TO/YOUR/AIRAS/REPOSITORY/.env" // 指向您的.env文件路径
            },
            "args": [ // 传递给启动命令的参数
                "--directory",
                "/PATH/TO/YOUR/AIRAS/REPOSITORY", // 指定uv命令的执行目录
                "run",
                "src/airas/utils/mcp_server/mcp_server.py" // uv run 执行的服务器启动脚本
            ]
        }
    }
}

请将 '/PATH/TO/YOUR/AIRAS/REPOSITORY' 替换为您实际克隆 AIRAS 仓库的路径。

基本使用方法

  1. 完成安装和环境变量设置。
  2. 在您的MCP客户端中添加并保存上述服务器配置。
  3. 启动您的MCP客户端。客户端会自动尝试根据配置启动并连接到 'researchgraph' MCP服务器。
  4. 一旦连接成功,您可以通过LLM客户端的界面或命令行与MCP服务器交互,调用其暴露的功能。例如,服务器暴露了一个名为 'retrieve_paper_subgraph' 的工具,LLM客户端可以利用此工具来执行论文检索任务,并获取格式化后的结果。具体交互方式取决于您的MCP客户端实现,通常是通过自然语言提示LLM来调用工具。

信息

分类

AI与计算