项目简介
Research Graph是AIRAS(AI Research Automation System)框架的一部分,专注于自动化AI研究流程。本项目提供了作为MCP(Model Context Protocol)服务器的后端实现,允许兼容MCP的LLM客户端调用其提供的功能,如检索和处理研究论文。
主要功能点
- 研究论文检索与处理: 根据用户提供的关键词,自动搜索、筛选和获取相关的研究论文信息(如来自arXiv等),并可能进行摘要和结构化提取。
- 工具调用: 集成了对外部工具的调用能力,例如与GitHub API交互进行仓库操作(Fork、创建分支、上传文件)以及与Devin等自动化工具协作生成或修改实验代码。
- 上下文管理: 通过在指定GitHub仓库分支上的特定文件(如'.research/research_history.json')存储和管理研究过程中的状态和数据,为LLM提供持续的上下文。
- 实验自动化流程: 包含实验代码生成、GitHub Actions执行、结果检索与分析、代码修正等子流程。
安装步骤
- 克隆仓库: 将Research Graph仓库克隆到本地。
- 安装依赖: 使用pip安装项目所需的Python库。
pip install airas - 配置API密钥: 项目依赖于多个外部服务(如OpenAI/Vertex AI、Devin、Firecrawl、GitHub)。请确保在环境变量或'.env'文件中设置以下API密钥:
- 'OPENAI_API_KEY' 或 'VERTEX_AI_API_KEY' (LLM访问)
- 'DEVIN_API_KEY' (Devin调用)
- 'FIRE_CRAWL_API_KEY' (网页抓取)
- 'GITHUB_PERSONAL_ACCESS_TOKEN' (GitHub操作)
服务器配置(MCP客户端配置)
为了让MCP客户端(如Claude Desktop, Visual Studio Code)能够连接并使用Research Graph MCP服务器,您需要在客户端的MCP配置中添加服务器信息。以下是一个示例配置片段(JSON格式),请根据您的实际文件路径进行调整:
{ "mcpServers": { // 或在 VS Code 的 ".vscode/settings.json" 中使用 "mcp.servers" "researchgraph": { // 服务器名称,客户端将通过此名称引用该服务器 "type": "stdio", // 传输协议类型,此处为标准I/O "command": "uv", // 启动服务器的可执行命令,此处使用uv运行Python脚本 "env": { "UV_ENV_FILE": "/PATH/TO/REPOSITORY/.env" // 指向您的.env文件路径,加载API密钥等环境变量 }, "args": [ // 传递给command的参数 "--directory", "/PATH/TO/REPOSITORY", // 项目仓库的根目录路径 "run", "src/researchgraph/mcp_server/mcp_server.py" // MCP服务器的Python脚本路径(相对于仓库根目录) ] } } }
请将'/PATH/TO/REPOSITORY/'替换为您实际克隆Research Graph仓库的本地路径。
基本使用方法
配置完成后,启动您的MCP客户端。客户端会自动启动配置的Research Graph MCP服务器进程。您可以在客户端界面中查找并使用“researchgraph”服务器提供的MCP工具。目前,主要提供的工具是“retrieve_paper_subgraph”,您可以通过向其提供关键词来启动论文检索和处理流程。具体交互方式取决于您使用的MCP客户端界面。
信息
分类
AI与计算