项目简介

Station是一个强大的开源运行时,旨在帮助用户在自己的基础设施上部署和管理AI代理。它通过提供Model Context Protocol (MCP) 服务器,让大型语言模型(LLM)能够安全、可控地访问基础设施资源、执行操作并利用预定义的交互模式。这使得AI代理能够自动化成本优化、安全合规、部署验证等复杂任务,同时确保敏感数据保持私有。

主要功能点

  • AI代理托管与管理: 支持创建、更新、删除、执行和导出AI代理,这些代理以声明式的'dotprompt'格式定义。
  • MCP工具集成: 提供丰富的工具集合,通过MCP协议将AWS API、文件系统、Stripe、Grafana以及用户自定义的OpenAPI接口等外部系统暴露给AI代理。
  • 资源访问能力: 允许LLM客户端以标准化方式读取Station内部管理的资源,如环境列表、代理详情、MCP配置等。
  • Prompt模板定义: 支持定义和渲染可定制的Prompt模板,用于引导LLM的交互模式,例如代理创建指南、安全扫描提示等。
  • 会话与执行管理: 跟踪AI代理的执行历史、工具调用序列和Token使用情况,提供详细的执行日志。
  • 环境隔离: 支持多环境(如开发、测试、生产)隔离,确保代理和工具在不同环境中的独立性和安全性。
  • API与SSH访问: 提供Web UI (HTTP API) 和SSH接口,方便用户管理Station。
  • CI/CD集成: 易于集成到GitHub Actions、GitLab CI等CI/CD流程,实现自动化运维。

安装步骤

  1. 安装Station: 在Linux或macOS系统上运行以下命令进行安装:
    curl -fsSL https://raw.githubusercontent.com/cloudshipai/station/main/install.sh | bash
  2. 启动Station: 启动Station,并配置一个AI提供商的API密钥(例如OpenAI):
    stn up --provider openai --api-key sk-your-key-here
    • 若要使用其他提供商,请替换'--provider'和'--api-key'参数,例如Anthropic ('--provider anthropic --api-key sk-ant-...') 或本地模型 (Ollama: '--provider custom --base-url http://localhost:11434/v1 --model llama3.2')。
  3. 停止Station:
    stn down
  4. 确认运行: 启动后,Station将运行以下服务:
    • Web UI: 'http://localhost:8585' (用于管理工具、捆绑包和构建)
    • 主MCP服务器: 'http://localhost:8586/mcp' (用于Claude Code/Cursor等客户端)
    • 动态Agent MCP服务器: 'http://localhost:3030/mcp' (将注册的Agent作为工具暴露)
    • 自动创建'.mcp.json'文件,方便与Claude等客户端集成。

MCP客户端配置示例

要让MCP客户端(如Claude Code或Cursor)连接到Station的MCP服务器,您需要在客户端的配置中指定MCP服务器的URL。Station会自动在您的本地配置目录中生成一个'.mcp.json'文件,其中可能包含以下结构。您只需确保您的MCP客户端可以访问并读取此文件:

{
  "mcpServers": {
    "station": {
      "type": "http",
      "url": "http://localhost:8586/mcp",
      "description": "Station主MCP服务器,提供代理、环境、工具管理功能。通过此接口,LLM可以调用Station提供的核心工具,例如创建新AI代理、列出环境信息、发现可用工具等。",
      "metadata": {
        "server_name": "Station MCP Server",
        "version": "1.0.0",
        "capabilities": ["tools", "resources", "prompts"]
      }
    },
    "dynamic-agents": {
      "type": "http",
      "url": "http://localhost:3030/mcp",
      "description": "Station动态代理MCP服务器。此服务器会将您在Station中创建和配置的每个AI代理自动转换为一个可供LLM调用的工具(例如 'agent_AWS Cost Spike Analyzer')。LLM可以直接通过此服务器执行已定义的AI代理。",
      "metadata": {
        "server_name": "Station Dynamic Agents",
        "version": "1.0.0",
        "capabilities": ["tools"]
      }
    }
  }
}
  • 配置说明:
    • 'station': 这是Station的主MCP服务器。LLM客户端通过此URL连接,可以访问Station提供的核心管理功能(如创建代理、列出环境、管理工具等)。
    • 'dynamic-agents': 这是Station的动态AI代理MCP服务器。LLM客户端通过此URL连接,可以直接将已在Station中注册的AI代理作为可调用工具使用。
  • 通常,MCP客户端会自动检测并读取此'.mcp.json'文件。如果您的客户端需要手动配置,请根据上述JSON结构和Station实际运行的端口(默认为'8586'和'3030')进行调整。

基本使用方法

  1. 添加MCP工具: 访问Web UI ('http://localhost:8585'),浏览并添加您需要连接的MCP服务器(例如AWS、Stripe、GitLab等),配置相应的环境变量和密钥。
  2. 连接LLM客户端: 启动或重启您的LLM客户端(如Claude Code/Cursor),它会自动连接到Station的MCP服务器。
  3. 创建与管理AI代理: 在LLM客户端中,利用Station提供的MCP工具,通过对话方式创建、运行和管理AI代理。例如,您可以对LLM说:“创建一个FinOps代理来分析AWS成本。” LLM会调用Station的MCP工具为您生成代理。
  4. 打包与部署: 通过Web UI,您可以将代理和MCP配置打包成捆绑包,方便团队共享和部署到生产环境(例如构建Docker镜像)。

信息

分类

AI与计算