简介
chatgpt-on-wechat是一个由第三方开发的Python开源项目,可以将聊天机器人等AI功能接入到微信/企微/飞书/钉钉等渠道。本项目需要自行部署,这里不再进行指导。
项目代码:https://github.com/zhayujie/chatgpt-on-wechat
我们为CoW开发的插件:https://github.com/302ai/302.AI-CoW-Plugin
聊天功能接入
在配置文件config.json中,更改如下的配置,如果找不到这两个配置,请添加在原配置下方:
"open_ai_api_base": "https://api.302.ai",
"open_ai_api_key": "sk-xxxxxxxxxxxxxxxxxxx", #管理后台-使用API-API Keys-复制自己的API KEY
'claude_api_key": "sk-xxxxxxxxxxxxxxxxxxx", #管理后台-使用API-API Keys-复制自己的API KEY
其中api_key需要在管理后台-使用API-API Keys-复制一个API KEY
配置范例:
同时修改/home/chatgpt-on-wechat/common/const.py
文件中的:MODEL_LIST
(需要将原有数据删除):
MODEL_LIST=["gpt-3.5-turbo","gpt-3.5-turbo-1106","gpt-3.5-turbo-16k","gpt-4-0125-preview","gpt-4-0613","gpt-4-1106-preview","gpt-4-32k","gpt-4-32k-0613","o1-preview","o1-mini","gpt-4o","gpt-4o-mini-2024-07-18","gpt-4o-2024-08-06","ChatGPT-4o-latest","gpt-4-turbo","gpt-3.5-turbo-0125","gpt-4","gpt-3.5-turbo-instruct","gpt-4-gizmo-*","gpt-4o-audio-preview","gpt-4o-2024-05-13","claude-3-5-sonnet-20241022","claude-3-opus-20240229","claude-3-haiku-20240307","claude-3-5-sonnet-20240620","claude-3-5-sonnet-lastest","claude-3-5-haiku-20241022","gemini-1.5-pro-002","gemini-1.5-flash-002","gemini-1.5-pro","gemini-1.5-pro-0801","gemini-1.5-pro-latest","gemini-1.5-pro-001","gemini-1.5-flash-001","gemini-exp-1114","Qwen-Turbo","Qwen-Long","Qwen-Plus","Qwen-Max","Qwen-Max-Latest","Qwen-VL-Max","Qwen-VL-Plus","Qwen-Math-Plus","glm-4","glm-4-Long","glm-4-Plus","glm-4-Air","glm-4-Flash","glm-4-AirX","CodeGeeX-4","glm-4V","glm-4V-Plus","Baichuan2-53B","Baichuan2-Turbo","Baichuan3-Turbo","Baichuan3-Turbo-128k","Baichuan4","Baichuan2-Turbo-192k","moonshot-v1-128k","moonshot-v1-32k","Moonshot-v1-8k","Yi-Large","yi-large-rag","Yi-Vision","yi-medium-200k","Step-1V-32k","Step-1V-8k","ERNIE-4.0-8K","ERNIE-4.0-Turbo","Deepseek-Chat","Deepseek-Coder","Doubao-pro-32k","Doubao-pro-128k","Spark Max","Spark Ultra","Spark Lite","SenseChat-5","SenseChat-Turbo","abab6.5s","Hunyuan-Lite","Hunyuan-Standard","Hunyuan-Standard-256K","Hunyuan-Pro","Hunyuan-Code","Hunyuan-Role","Hunyuan-Functioncall","Hunyuan-Vision","Yi-Lightning","Step-1.5V-Turbo","Llama3.2-90B","Llama3.2-11B","Qwen2.5-72B","Llama3.1-405B","Llama3.1-70B","Llama3.1-8B","Qwen2.5-Coder-7B","Llama3-70B","Llama3-8B","Mistral-Large-2","Mixtral-8x7B","Gemma-7B","Gemma2-9B","Gemma2-27B","Command R+","Qwen2-72B","Qwen2-7B","Llama-3.1-nemotron","farui-plus","XuanYuan-70B","ChatLaw","pplx-8b-online","grok-beta","pplx-70b-online","pplx-405b-online","Qwen2.5-Math-72B"]
配置范例:
此时就可以通过指令切换模型
指令:【#model 模型名】
例如:【#model glm-4-plus】
指令:【#reset】清除记忆
插件接入
找到我们开发的插件代码,下载需要的插件文件夹,打开config.json文件,填入后台生成的API KEY(如果是知识库插件,请填入对应知识库机器人的API KEY,具体请看下方的知识库插件介绍):
然后将整个文件夹复制到CoW插件的Plugin文件夹内
重新启动进程,插件会自动被扫描并加载。
cd /root/chatgpt-on-wechat/
./run.sh restart
绘画插件介绍
插件链接:https://github.com/302ai/302-CoW-Plugin/tree/main/PaintBot
插件按照上文安装后,
此插件集合了Midjourney,Flux,Ideogram,Recraft四种绘画API为一体,可以通过对话进行切换
绘画指令
指令:【绘图 提示词】
例如:【绘图 雪山之巅】
切换绘图模型
指令:【切换绘图模型 模型名】
例如:【切换绘图模型 midjourney】
目前可用模型名:

MidJourney专有指令
创建绘画任务:
指令:【绘图 提示词】
例如:【绘图 雪山之巅】
在midjourney模型下创建任务后会得到一个任务Id,您可以用这个任务Id进行进一步操作:

查询绘画结果:
指令:【mj查询 任务id】查询创建的任务状态
例如:【mj查询 1731949435921836】
机器人会自动展示图片结果,但是如果超过一分钟没有结果,可以通过此命令查询任务结果。
指令:【mj放大 任务id 1】放大某张图片
例如:【mj放大 1731949435921836 1】
(序号从左至右1,2,第二行,3,4)
重新生成:
指令:【mj重画 任务id】重新生成4张照片
例如:【mj重画 1731949435921836】
生成类似图片:
指令:【mj类似 任务id 1】生成4张与某张图片类似图片
例如:【mj类似 1731949435921836 1】
知识库插件介绍
首先创建一个知识库,将文件导入,并且创建一个知识库机器人。具体教程可看:知识库机器人创建
找到对应的知识库机器人,点击集成:
点击CoW标签页:
下载我们的知识库插件:https://github.com/302ai/302-CoW-Plugin/tree/main/Knowledge-Base
将CoW标签页显示的api_key,填入知识库插件的config.js文件:
(注意,一定要对应机器人的key,其他的key是不行的,因为知识库和key是一一绑定的,如果要更换知识库,请在后台操作)
其中model_name可以自己进行选择,范例选择了gpt-4o-mini,是一个性价比比较高的模型。
将插件放入CoW的插件文件夹:
重启CoW插件:
cd /root/chatgpt-on-wechat/
./run.sh restart
或
cd /root/chatgpt-on-wechat/
python3 app.py
接下来所有的聊天都会被知识库机器人接管,回答的都会是根据知识库的信息进行的回答,例如:
如果要禁用知识库机器人,可以使用命令:
#disablep knowledge_base_chat
此命令需要私聊对机器人进行授权认证,不然会报错:
重新开启知识库机器人,可使用命令:
#enablep knowledge_base_chat
搜索插件介绍
下载我们的搜索插件:https://github.com/302ai/302-CoW-Plugin/tree/main/Chat-Search
将config.json的api_key位置,填入你在API超市-API Keys生成的apikey:
模型默认为pplx的联网模型,无需改动。
将插件放入CoW的插件文件夹,重启CoW(具体操作可以看知识库插件)。
接下来机器人会自动识别“搜 ”这个触发词(搜+空格),进行搜索,例如:
如果没有触发词,则机器人会用默认设置的模型。