项目简介
Flux是一个基于Model Context Protocol (MCP) 的服务器实现,旨在增强AI的工具调用能力,特别是与AO(Arweave计算层)的交互。它通过标准化接口向大型语言模型(LLM)客户端提供执行AO操作、管理AO进程、部署代码等能力。Flux使得LLM能够通过自然的语言指令,自动化地在AO网络上进行开发和操作。
主要功能点
Flux提供以下主要功能:
- 创建和管理AO进程: 允许LLM在AO网络上启动新的计算进程。
- 向AO进程发送消息和指令: 支持向指定的AO进程发送带有特定数据和标签的消息,驱动进程执行操作。
- 在AO进程中执行Lua代码: 能够直接在运行中的AO进程内执行Lua脚本,实现高级控制和自定义逻辑。
- 安装AO包管理器(APM)中的包: 简化在AO进程中引入外部库和工具的流程。
- 加载和运行AO蓝图(Blueprint): 支持加载和部署预定义的AO代码模板(蓝图),快速构建特定功能的进程。
- 创建和管理AO进程中的消息处理程序(Handler): 允许LLM定义和安装自定义的处理程序,以响应特定的消息或事件。
- (本地模式额外提供)基本的Arweave数据上传、查询和智能合约交互功能。
安装步骤
Flux支持本地和远程两种安装方式,主要在Cursor等支持MCP工具调用的AI客户端中使用。具体安装方法取决于你选择的AI客户端和部署方式:
- 本地安装:
- 确保你的机器上已安装最新稳定版的Node.js环境。
- 从Flux仓库获取'src/local/index.js'文件,并将其保存在本地任意位置,记录其绝对路径。
- 打开支持MCP的AI客户端(如Cursor),在其设置中找到MCP或工具调用相关配置项,添加一个新的MCP工具。配置类型通常为“本地命令”。
- 将启动Flux本地服务器进程的命令指向你保存的'src/local/index.js'文件(例如,'node /path/to/your/local/index.js')。
- 远程安装:
- Flux项目可能提供一个公开可用的远程服务实例。
- 打开支持MCP的AI客户端(如Cursor),在其设置中找到MCP或工具调用相关配置项,添加一个新的MCP工具。配置类型通常为“远程服务URL”。
- 将远程服务提供的HTTP/SSE接口URL填入配置项(例如,'https://flux-2esw.onrender.com/sse')。
完成上述步骤后,你的AI客户端应该能够识别并连接到Flux MCP服务器。
服务器配置
MCP客户端需要通过配置来连接Flux服务器。配置通常是JSON格式,至少包含服务器的名称 ('name') 和连接方式('command' 用于本地启动,'url' 用于连接远程HTTP/SSE服务)。具体配置参数:
- 'name': 服务器的唯一标识符,例如 'flux'。
- 'command': 如果是本地模式,这是启动Flux本地服务器进程的命令,例如 'node /path/to/your/local/index.js'。
- 'url': 如果是远程模式,这是Flux服务器提供的HTTP/SSE接口URL,例如 'https://flux-2esw.onrender.com/sse'。
(注意:这里不提供完整的JSON配置代码,因为不同的MCP客户端可能有不同的配置格式,用户应参考其客户端文档,并使用上述参数进行配置。)
基本使用方法
在AI客户端中连接并成功加载Flux MCP服务器后,LLM即可通过调用Flux暴露的工具与AO网络进行交互。通常情况下,LLM会分析用户的自然语言请求,并根据请求选择调用合适的Flux工具,例如:
- 当用户要求创建一个新的AO进程时,LLM可以调用 'spawn' 工具。
- 当用户想向一个已存在的AO进程发送指令或数据时,LLM可以调用 'send-message-to-process' 工具。
- 当用户需要在一个AO进程中执行一段特定的Lua脚本进行调试或配置时,LLM可以调用 'run-lua-in-process' 工具。
为了提高交互效果,建议在AI客户端中提供AO的相关文档作为上下文,并根据项目提供的规则调整LLM的行为,避免生成不符合AO交互规范的代码或指令。
信息
分类
AI与计算