使用说明
项目简介
LLM Terminal 是一个基于终端界面的LLM客户端应用,它利用 Model Context Protocol (MCP) 集成了 Python 代码执行能力。这意味着 LLM 不仅可以进行自然语言对话,还能安全地执行 Python 代码,从而扩展其功能,例如进行数据分析、调用外部 API 等。
主要功能点
- 终端用户界面: 提供简洁直观的命令行交互方式。
- LLM 集成: 使用 PydanticAI 库与各种 LLM 模型进行通信。
- MCP Python 工具: 通过 MCP 协议,允许 LLM 安全地执行 Python 代码。
- 流式响应: 支持流式传输 LLM 的响应,并使用 Markdown 格式化输出。
安装步骤
- 克隆仓库:
git clone https://github.com/ferdousbhai/llm-terminal.git - 进入目录:
cd llm-terminal - 使用 uv 安装:
uv pip install -e .
服务器配置
此应用内嵌了 MCP 服务器,无需用户手动配置和启动独立的 MCP 服务器。MCP 服务器的配置信息已预置在 'llm_terminal/app.py' 文件中,客户端 (LLM Terminal 应用) 运行时会自动启动 MCP 服务器。
以下是 MCP 服务器的配置信息,供参考 (无需用户手动配置):
{ "server name": "MCP Python Runtime", "command": "deno", "args": [ "run", "-N", "-R=node_modules", "-W=node_modules", "--node-modules-dir=auto", "jsr:@pydantic/mcp-run-python", "stdio" ], "description": "此配置用于启动 MCP Python 运行时环境。它使用 Deno 安全地执行 Python 代码,使 LLM 能够利用 Python 工具执行数据分析或外部 API 调用等任务。" }
基本使用方法
- 运行应用:
或llm-terminalpython -m llm_terminal.app - 开始对话: 在终端输入框中输入你的问题或指令,按 Enter 发送。
- 查看响应: AI 的回复将显示在终端界面中。当 LLM 需要执行 Python 代码时,MCP 服务器会在后台自动处理,并将结果返回给 LLM。
信息
分类
AI与计算