使用说明
项目简介
智能对话机器人项目是一个基于大型语言模型的开源对话机器人,旨在帮助用户快速搭建在微信、企业微信、公众号、飞书、钉钉等平台运行的智能对话应用。它支持多种大模型,例如GPT-3.5/GPT-4、Claude、文心一言等,并具备处理文本、语音和图片等多种类型的消息能力。通过丰富的插件机制,该项目能够访问操作系统和互联网等外部资源,并支持基于自有知识库定制企业AI应用,为用户提供强大的AI助手功能。
主要功能点
- 多端部署: 支持个人微信、微信公众号、企业微信、飞书、钉钉等多种部署方式,满足不同场景的需求。
- 基础对话: 提供私聊和群聊的消息智能回复功能,支持多轮会话上下文记忆,并可灵活选择多种大语言模型。
- 语音能力: 支持语音消息识别和语音回复,可选择多种语音模型,实现便捷的语音交互体验。
- 图像能力: 支持图片生成、图片识别和图生图等图像处理功能,并集成多种图像模型,满足多样化的图像需求。
- 丰富插件: 通过插件扩展机制,实现角色扮演、联网搜索、文档总结、知识库对话等个性化功能。
- 知识库: 支持用户上传知识库文件,自定义专属机器人,打造数字分身、智能客服或私域助手。
安装步骤
-
准备工作
- 注册 OpenAI 或 LinkAI 账号并获取 API Key。
- 确保已安装 Python 3.7.1~3.9.X 环境。
-
运行环境
- 克隆项目代码到本地:
git clone https://github.com/rsagacom/chatgpt-on-wechat cd chatgpt-on-wechat/ - 安装核心依赖:
pip3 install -r requirements.txt - (可选)安装拓展依赖:
pip3 install -r requirements-optional.txt
- 克隆项目代码到本地:
-
配置
- 复制 'config-template.json' 为 'config.json':
cp config-template.json config.json - 编辑 'config.json' 文件,填入 OpenAI API Key 或 LinkAI 相关配置,以及其他自定义选项,例如机器人触发前缀、群聊白名单等。详细配置项请参考 'config.json' 文件内的注释或项目文档。
- 复制 'config-template.json' 为 'config.json':
-
运行
- 本地运行:
python3 app.py - 服务器部署(后台运行):
nohup python3 app.py & tail -f nohup.out - Docker 部署或 Railway 部署请参考项目 README 文档。
- 本地运行:
服务器配置
以下是一个 MCP 客户端连接到 '智能对话机器人' MCP 服务器的 'serverConfig.json' 配置示例,假设服务器在本地运行:
{ "serverName": "ChatBotServer", "command": "python3", "args": [ "app.py" ], "protocol": "stdio", "transport": "stdio", "model": "gpt-3.5-turbo", "openai_api_key": "YOUR_OPENAI_API_KEY" }
配置项说明:
- 'serverName': MCP 服务器的名称,可以自定义。
- 'command': 启动 MCP 服务器的命令,这里使用 'python3'。
- 'args': 启动命令的参数,这里指定运行 'app.py' 文件。
- 'protocol': 通信协议,本项目默认使用 'stdio'。
- 'transport': 传输方式,本项目默认使用 'stdio'。
- 'model': 指定默认使用的大语言模型,例如 'gpt-3.5-turbo'。
- 'openai_api_key': (可选)如果使用 OpenAI 模型,可以在此处配置 API Key,也可以在 'config.json' 中配置。
基本使用方法
- 扫码登录微信后,机器人即可运行。
- 私聊时,发送以配置的前缀(默认为 'bot' 或 '@bot')开始的消息即可触发机器人回复。
- 群聊时,将群名称加入白名单,并艾特机器人或发送以配置的前缀开始的消息即可触发回复。
- 可以尝试发送语音、图片消息,或使用插件指令(例如 '$角色扮演 设定角色')体验更多功能。
- 发送 '#help' 指令可以查看更多帮助信息。
信息
分类
AI与计算