项目简介

Fry-CLI是一个强大的命令行工具,旨在探索大型语言模型(LLM)通过Prompt和工具定义能实现多远的功能。其内置的MCP服务器模块,使得LLM客户端(如Open WebUI)能够通过标准化的JSON-RPC协议调用这些本地工具,从而赋予LLM执行代码、管理文件和与本地环境交互的能力。

主要功能点

该MCP服务器将Fry-CLI的强大本地功能暴露给LLM客户端,主要包括:

  • 文件系统操作: 允许LLM列出目录内容、读取、写入文件、创建目录、在文件中搜索特定内容以及应用多文件补丁。所有文件操作都限制在服务器启动的当前工作目录内,确保安全。
  • 代码执行: LLM可以请求执行Shell命令(通过'exec'或'shell'工具)或Python代码(通过'exec'或'python'工具)。这使得LLM能够与操作系统进行交互,运行脚本来完成复杂任务。

安装步骤

  1. 安装Node.js: 确保您的系统已安装Node.js环境。
  2. 全局安装Fry CLI: 打开终端,运行以下命令:
    npm install -g @buchuleaf/fry-cli
    这将同时安装Fry CLI及其MCP服务器组件。

服务器配置(供MCP客户端使用)

MCP客户端(例如Open WebUI)在连接Fry CLI MCP服务器时,通常需要提供以下配置信息。请根据客户端界面的提示填写相应字段:

  • 服务器名称 (Server Name):

    • 建议填写:'Fry CLI MCP Server' (可自定义一个易于识别的名称)
    • 说明:客户端界面中显示的服务名称。
  • 启动命令 (Command):

    • 如果已全局安装'@buchuleaf/fry-cli',最简单的填写方式是:'fry-mcp'
    • 如果需要指定Node.js路径或从项目安装目录运行,可填写:'node /path/to/fry-cli/dist/mcp/server.js' (请将'/path/to/fry-cli/dist/mcp/server.js'替换为您的实际安装路径)
    • 说明:这是启动MCP服务器进程的实际命令。
  • 启动参数 (Arguments):

    • 填写:留空,通常为'[]'
    • 说明:Fry CLI MCP服务器默认不需要额外的启动参数。
  • 工作目录 (Working Directory):

    • 说明:这是MCP服务器启动时所在的目录。所有文件系统操作(如'fs.ls', 'fs.read'等)都将限制在此目录及其子目录内。为了LLM能访问项目文件,建议将此目录设置为LLM需要操作的项目根目录。
  • 通信协议 (Protocol/Transport):

    • 说明:此服务器使用'Stdio'(标准输入输出)协议进行通信。通常客户端会自动处理,无需额外配置。

基本使用方法

一旦MCP服务器成功配置并运行,LLM客户端即可通过调用其暴露的工具与本地环境交互。例如:

  • LLM可以调用'fs.ls'工具列出当前工作目录下的文件和文件夹。
  • LLM可以调用'fs.read'工具读取特定文件的内容。
  • LLM可以调用'exec'工具(或'shell'/'python')执行shell命令或Python脚本来完成更复杂的任务。 LLM会根据其目标和能力,自动决定何时以及如何使用这些工具。

信息

分类

开发者工具