项目简介
Fry-CLI是一个强大的命令行工具,旨在探索大型语言模型(LLM)通过Prompt和工具定义能实现多远的功能。其内置的MCP服务器模块,使得LLM客户端(如Open WebUI)能够通过标准化的JSON-RPC协议调用这些本地工具,从而赋予LLM执行代码、管理文件和与本地环境交互的能力。
主要功能点
该MCP服务器将Fry-CLI的强大本地功能暴露给LLM客户端,主要包括:
- 文件系统操作: 允许LLM列出目录内容、读取、写入文件、创建目录、在文件中搜索特定内容以及应用多文件补丁。所有文件操作都限制在服务器启动的当前工作目录内,确保安全。
- 代码执行: LLM可以请求执行Shell命令(通过'exec'或'shell'工具)或Python代码(通过'exec'或'python'工具)。这使得LLM能够与操作系统进行交互,运行脚本来完成复杂任务。
安装步骤
- 安装Node.js: 确保您的系统已安装Node.js环境。
- 全局安装Fry CLI: 打开终端,运行以下命令:
这将同时安装Fry CLI及其MCP服务器组件。npm install -g @buchuleaf/fry-cli
服务器配置(供MCP客户端使用)
MCP客户端(例如Open WebUI)在连接Fry CLI MCP服务器时,通常需要提供以下配置信息。请根据客户端界面的提示填写相应字段:
-
服务器名称 (Server Name):
- 建议填写:'Fry CLI MCP Server' (可自定义一个易于识别的名称)
- 说明:客户端界面中显示的服务名称。
-
启动命令 (Command):
- 如果已全局安装'@buchuleaf/fry-cli',最简单的填写方式是:'fry-mcp'
- 如果需要指定Node.js路径或从项目安装目录运行,可填写:'node /path/to/fry-cli/dist/mcp/server.js' (请将'/path/to/fry-cli/dist/mcp/server.js'替换为您的实际安装路径)
- 说明:这是启动MCP服务器进程的实际命令。
-
启动参数 (Arguments):
- 填写:留空,通常为'[]'
- 说明:Fry CLI MCP服务器默认不需要额外的启动参数。
-
工作目录 (Working Directory):
- 说明:这是MCP服务器启动时所在的目录。所有文件系统操作(如'fs.ls', 'fs.read'等)都将限制在此目录及其子目录内。为了LLM能访问项目文件,建议将此目录设置为LLM需要操作的项目根目录。
-
通信协议 (Protocol/Transport):
- 说明:此服务器使用'Stdio'(标准输入输出)协议进行通信。通常客户端会自动处理,无需额外配置。
基本使用方法
一旦MCP服务器成功配置并运行,LLM客户端即可通过调用其暴露的工具与本地环境交互。例如:
- LLM可以调用'fs.ls'工具列出当前工作目录下的文件和文件夹。
- LLM可以调用'fs.read'工具读取特定文件的内容。
- LLM可以调用'exec'工具(或'shell'/'python')执行shell命令或Python脚本来完成更复杂的任务。 LLM会根据其目标和能力,自动决定何时以及如何使用这些工具。
信息
分类
开发者工具