type
status
date
slug
summary
tags
category
icon
password
ChatGPT相信大家都已经非常熟悉,但是对于国内的朋友使用起来有很多的不便,能否用AI的对话模型连接到我们的微信?把微信打造成一个智能机器人?而且可以在与好友对话中给出意想不到的回应?我想这或许可以满足一部份朋友的需求。
1. 准备工作:
在搭建之前必须准备相应的API Key,常用的API Key获取链接如下:
Gemini:
2. 运行环境:
支持 Linux、MacOS、Windows 系统(可在Linux服务器上长期运行),同时需安装
Python
。建议Python版本在 3.7.1~3.9.X 之间,推荐3.8版本,3.10及以上版本在 MacOS 可用,其他系统上不确定能否正常运行。
注意:Docker 或 Railway 部署无需安装python环境和下载源码,可直接快进到下一节。
3. 安装步骤:
(1) 克隆项目代码:
(2) 安装核心依赖 (必选):
(3) 拓展依赖 (可选,建议安装):
如果某项依赖安装失败请注释掉对应的行再继续。
其中
tiktoken
要求python
版本在3.8以上,它用于精确计算会话使用的tokens数量,强烈建议安装。
使用google
或baidu
语音识别需安装ffmpeg
,
默认的openai
语音识别不需要安装ffmpeg
。4. 配置:
配置文件的模板在根目录的
config-template.json
中,需复制该模板创建最终生效的 config.json
文件:然后在
config.json
中填入配置,以下是对默认配置的说明,可根据需要进行自定义修改(请去掉注释):5. 配置说明:
(1).个人聊天
- 个人聊天中,需要以 "bot"或"@bot" 为开头的内容触发机器人,对应配置项
single_chat_prefix
(如果不需要以前缀触发可以填写"single_chat_prefix": [""]
)
- 机器人回复的内容会以 "[bot] " 作为前缀, 以区分真人,对应的配置项为
single_chat_reply_prefix
(如果不需要前缀可以填写"single_chat_reply_prefix": ""
)
(2).群组聊天
- 群组聊天中,群名称需配置在
group_name_white_list
中才能开启群聊自动回复。如果想对所有群聊生效,可以直接填写"group_name_white_list": ["ALL_GROUP"]
- 默认只要被人 @ 就会触发机器人自动回复;另外群聊天中只要检测到以 "@bot" 开头的内容,同样会自动回复(方便自己触发),这对应配置项
group_chat_prefix
- 可选配置:
group_name_keyword_white_list
配置项支持模糊匹配群名称,group_chat_keyword
配置项则支持模糊匹配群消息内容,用法与上述两个配置项相同。(Contributed by evolay)
group_chat_in_one_session
:使群聊共享一个会话上下文,配置["ALL_GROUP"]
则作用于所有群聊
(3).语音识别
- 添加
"speech_recognition": true
将开启语音识别,默认使用openai的whisper模型识别为文字,同时以文字回复,该参数仅支持私聊 (注意由于语音消息无法匹配前缀,一旦开启将对所有语音自动回复,支持语音触发画图);
- 添加
"group_speech_recognition": true
将开启群组语音识别,默认使用openai的whisper模型识别为文字,同时以文字回复,参数仅支持群聊 (会匹配group_chat_prefix和group_chat_keyword, 支持语音触发画图);
- 添加
"voice_reply_voice": true
将开启语音回复语音(同时作用于私聊和群聊),但是需要配置对应语音合成平台的key,由于itchat协议的限制,只能发送语音mp3文件,若使用wechaty则回复的是微信语音。
(4).其他配置
model
: 模型名称,目前支持gpt-3.5-turbo
,text-davinci-003
,gpt-4
,gpt-4-32k
,wenxin
,claude
,xunfei
(其中gpt-4 api暂未完全开放,申请通过后可使用)
temperature
frequency_penalty
presence_penalty
: Chat API接口参数,详情参考OpenAI官方文档。
proxy
:由于目前openai
接口国内无法访问,需配置代理客户端的地址,详情参考 #351
- 对于图像生成,在满足个人或群组触发条件外,还需要额外的关键词前缀来触发,对应配置
image_create_prefix
conversation_max_tokens
:表示能够记忆的上下文最大字数(一问一答为一组对话,如果累积的对话字数超出限制,就会优先移除最早的一组对话)
rate_limit_chatgpt
,rate_limit_dalle
:每分钟最高问答速率、画图速率,超速后排队按序处理。
clear_memory_commands
: 对话内指令,主动清空前文记忆,字符串数组可自定义指令别名。
hot_reload
: 程序退出后,暂存微信扫码状态,默认关闭。
character_desc
配置中保存着你对机器人说的一段话,他会记住这段话并作为他的设定,你可以为他定制任何人格 (关于会话上下文的更多内容参考该 issue)
subscribe_msg
:订阅消息,公众号和企业微信channel中请填写,当被订阅时会自动回复, 可使用特殊占位符。目前支持的占位符有{trigger_prefix},在程序中它会自动替换成bot的触发词。
(5).LinkAI配置 (可选)
use_linkai
: 是否使用LinkAI接口,开启后可国内访问,使用知识库和Midjourney
绘画, 参考 文档
linkai_api_key
: LinkAI Api Key,可在 控制台 创建
linkai_app_code
: LinkAI 应用code,选填
本说明文档可能会未及时更新,当前所有可选的配置项均在该
config.py
中列出。6. 运行:
(1).本地运行
终端输出二维码后,使用微信进行扫码,当输出 "Start auto replying" 时表示自动回复程序已经成功运行了(注意:用于登录的微信需要在支付处已完成实名认证)。扫码登录后你的账号就成为机器人了,可以在微信手机端通过配置的关键词触发自动回复 (任意好友发送消息给你,或是自己发消息给好友).
(2).服务器部署
使用nohup命令在后台运行程序:
扫码登录后程序即可运行于服务器后台,此时可通过
ctrl+c
关闭日志,不会影响后台程序的运行。使用 ps -ef | grep app.py | grep -v grep
命令可查看运行于后台的进程,如果想要重新启动程序可以先 kill
掉对应的进程。日志关闭后如果想要再次打开只需输入 tail -f nohup.out
。此外,scripts
目录下有一键运行、关闭程序的脚本供使用。
多账号支持: 将项目复制多份,分别启动程序,用不同账号扫码登录即可实现同时运行。7. Docker部署:
使用docker部署无需下载源码和安装依赖,只需要获取 docker-compose.yml 配置文件并启动容器即可。
(1) 下载 docker-compose.yml 文件
下载完成后打开
docker-compose.yml
修改所需配置,如 OPEN_AI_API_KEY
和 GROUP_NAME_WHITE_LIST
等。(2) 启动容器
在
docker-compose.yml
所在目录下执行以下命令启动容器:运行
sudo docker ps
能查看到 NAMES 为 chatgpt-on-wechat 的容器即表示运行成功。最后运行以下命令可查看容器运行日志,扫描日志中的二维码即可完成登录:
(3) 插件使用
如果需要在docker容器中修改插件配置,可通过挂载的方式完成,将 插件配置文件 重命名为
config.json
,放置于 docker-compose.yml
相同目录下,并在 docker-compose.yml
中的 chatgpt-on-wechat
部分下添加 volumes
映射:常见问题:
- 作者:VTSE
- 链接:https://vtse.eu.org/article/ai-on-wechat
- 声明:本文采用 CC BY-NC-SA 4.0 许可协议,转载请注明出处。