- 项目简介
- 该仓库实现了一个MCP服务器,用于通过标准化接口向LLM客户端暴露ATLAS Central Page中的资源、工具以及元数据查询能力,便于LLM在推理过程中获取上下文信息并执行外部操作。
- 主要功能点
- MCP服务器实现:提供多种工具接口(如获取允许的作用域、通过关键词检索地址、获取事件生成地址的样例、按数据集运行获取数据集合、获取数据集元数据等),返回JSON格式数据。
- 支持多种传输协议:服务器可通过STDIO(子进程交互,如VS Code集成环境)或HTTP传输进行通信,方便在不同客户端场景下使用。
- 会话与能力暴露:通过中央页面逻辑封装实现,包含范围描述、标签查询、元数据以及 provenance 的查询能力,便于LLM在对话中灵活调用。
- 服务端实现与测试分离:包含服务器实现代码以及针对核心逻辑(如中央页解析、 provenance、元数据获取等)的测试用例,确保功能明确且可验证。
- 安装步骤(简要)
- 准备Python运行环境(Python 3.8+)。
- 安装依赖库(示例包括 FastMCP、Pydantic、diskcache 等,具体依赖在环境中安装即可)。
- 将仓库中的代码部署到目标环境中,确保能够访问所需外部工具或接口(如AMI工具、Rucio等)以正常运行。
- 服务器配置(MCP客户端所需信息,JSON格式示例)
- server_name: atlas_standard_MonteCarlo_catalog
- command: uv
- args: ["run", "-m", "atlas_mcp.server", "--transport", "stdio"] 说明:上述配置用于在STDIO传输模式下启动服务器。若要使用HTTP传输,请将 args 替换为 ["run", "-m", "atlas_mcp.server", "--transport", "http", "--port", "8080"],并在后续客户端中使用相应的端口连接。
- 基本使用方法
- 启动服务器(STDIO模式): 使用命令行工具运行配置中的命令,即以STDIO方式启动服务,服务器准备就绪后可被LLM客户端通过JSON-RPC调用。
- 通过客户端调用工具接口:客户端向服务器发送JSON-RPC请求,例如查询允许的作用域、按关键词检索地址、获取数据集元数据等,服务器返回JSON格式的响应。
- 进行能力拼接:将资源、工具与元数据查询结果结合,驱动LLM在对话中进行上下文扩充、数据获取与外部功能调用。
- 如需切换传输模式:可将传输模式改为HTTP并指定端口,HTTP模式下的客户端可通过http://<host>:<port>/mcp访问服务。
信息
分类
AI与计算