使用说明

项目简介

LLM Terminal 是一个基于终端界面的LLM客户端应用,它利用 Model Context Protocol (MCP) 集成了 Python 代码执行能力。这意味着 LLM 不仅可以进行自然语言对话,还能安全地执行 Python 代码,从而扩展其功能,例如进行数据分析、调用外部 API 等。

主要功能点

  • 终端用户界面: 提供简洁直观的命令行交互方式。
  • LLM 集成: 使用 PydanticAI 库与各种 LLM 模型进行通信。
  • MCP Python 工具: 通过 MCP 协议,允许 LLM 安全地执行 Python 代码。
  • 流式响应: 支持流式传输 LLM 的响应,并使用 Markdown 格式化输出。

安装步骤

  1. 克隆仓库:
    git clone https://github.com/ferdousbhai/llm-terminal.git
  2. 进入目录:
    cd llm-terminal
  3. 使用 uv 安装:
    uv pip install -e .

服务器配置

此应用内嵌了 MCP 服务器,无需用户手动配置和启动独立的 MCP 服务器。MCP 服务器的配置信息已预置在 'llm_terminal/app.py' 文件中,客户端 (LLM Terminal 应用) 运行时会自动启动 MCP 服务器。

以下是 MCP 服务器的配置信息,供参考 (无需用户手动配置):

{
  "server name": "MCP Python Runtime",
  "command": "deno",
  "args": [
    "run",
    "-N",
    "-R=node_modules",
    "-W=node_modules",
    "--node-modules-dir=auto",
    "jsr:@pydantic/mcp-run-python",
    "stdio"
  ],
  "description": "此配置用于启动 MCP Python 运行时环境。它使用 Deno 安全地执行 Python 代码,使 LLM 能够利用 Python 工具执行数据分析或外部 API 调用等任务。"
}

基本使用方法

  1. 运行应用:
    llm-terminal
    python -m llm_terminal.app
  2. 开始对话: 在终端输入框中输入你的问题或指令,按 Enter 发送。
  3. 查看响应: AI 的回复将显示在终端界面中。当 LLM 需要执行 Python 代码时,MCP 服务器会在后台自动处理,并将结果返回给 LLM。

信息

分类

AI与计算