项目简介

Research Graph是AIRAS(AI Research Automation System)框架的一部分,专注于自动化AI研究流程。本项目提供了作为MCP(Model Context Protocol)服务器的后端实现,允许兼容MCP的LLM客户端调用其提供的功能,如检索和处理研究论文。

主要功能点

  • 研究论文检索与处理: 根据用户提供的关键词,自动搜索、筛选和获取相关的研究论文信息(如来自arXiv等),并可能进行摘要和结构化提取。
  • 工具调用: 集成了对外部工具的调用能力,例如与GitHub API交互进行仓库操作(Fork、创建分支、上传文件)以及与Devin等自动化工具协作生成或修改实验代码。
  • 上下文管理: 通过在指定GitHub仓库分支上的特定文件(如'.research/research_history.json')存储和管理研究过程中的状态和数据,为LLM提供持续的上下文。
  • 实验自动化流程: 包含实验代码生成、GitHub Actions执行、结果检索与分析、代码修正等子流程。

安装步骤

  1. 克隆仓库: 将Research Graph仓库克隆到本地。
  2. 安装依赖: 使用pip安装项目所需的Python库。
    pip install airas
  3. 配置API密钥: 项目依赖于多个外部服务(如OpenAI/Vertex AI、Devin、Firecrawl、GitHub)。请确保在环境变量或'.env'文件中设置以下API密钥:
    • 'OPENAI_API_KEY' 或 'VERTEX_AI_API_KEY' (LLM访问)
    • 'DEVIN_API_KEY' (Devin调用)
    • 'FIRE_CRAWL_API_KEY' (网页抓取)
    • 'GITHUB_PERSONAL_ACCESS_TOKEN' (GitHub操作)

服务器配置(MCP客户端配置)

为了让MCP客户端(如Claude Desktop, Visual Studio Code)能够连接并使用Research Graph MCP服务器,您需要在客户端的MCP配置中添加服务器信息。以下是一个示例配置片段(JSON格式),请根据您的实际文件路径进行调整:

{
  "mcpServers": { // 或在 VS Code 的 ".vscode/settings.json" 中使用 "mcp.servers"
    "researchgraph": { // 服务器名称,客户端将通过此名称引用该服务器
      "type": "stdio", // 传输协议类型,此处为标准I/O
      "command": "uv", // 启动服务器的可执行命令,此处使用uv运行Python脚本
      "env": {
          "UV_ENV_FILE": "/PATH/TO/REPOSITORY/.env" // 指向您的.env文件路径,加载API密钥等环境变量
      },
      "args": [ // 传递给command的参数
          "--directory",
          "/PATH/TO/REPOSITORY", // 项目仓库的根目录路径
          "run",
          "src/researchgraph/mcp_server/mcp_server.py" // MCP服务器的Python脚本路径(相对于仓库根目录)
      ]
    }
  }
}

请将'/PATH/TO/REPOSITORY/'替换为您实际克隆Research Graph仓库的本地路径。

基本使用方法

配置完成后,启动您的MCP客户端。客户端会自动启动配置的Research Graph MCP服务器进程。您可以在客户端界面中查找并使用“researchgraph”服务器提供的MCP工具。目前,主要提供的工具是“retrieve_paper_subgraph”,您可以通过向其提供关键词来启动论文检索和处理流程。具体交互方式取决于您使用的MCP客户端界面。

信息

分类

AI与计算