文章大部分来自:https://lucent.blog
原文博客地址:https://blog.ideaopen.cn
最近火热全文的ChatGPT
,被很多人玩出了花,我们在Github
上可以看到几个常见的逆向SDK包
,这一篇我将以学习的方式来写这一篇文章。
这些SDK
不仅仅可以用于开发机器人,还可以自由的开发你所想要的效果,如你所想,他是一个工具包,帮你chuanchuan构建一个ChatGPT
服务和会话。
最近
OpenAi
给他套上了一个Cloudflare
的CDN
服务,这个服务会去拦截非真机请求,现在已经可以破解了。
寻找合适的逆向SDK
原作者用的是这个。
整个包的文件并不是很多,喜欢Python
的可以去看看,我这个Java
看不太懂。
实践开始-实践篇第一
代码中使用到的revChatGPT依赖源码库:
https://github.com/acheong08/ChatGPT
我们的Python版本,需要>=3.8
,然后pip
直接升级到最新版本。
下面代码的目的是与ChatGPT官方接口进行交互,注意安装一下里面用到的依赖
chat-gpt-qbot.py:
import flask, json
from flask import request
from revChatGPT.revChatGPT import Chatbot
config = {
"session_token": "换成你自己的token"
}
# 创建一个服务,把当前这个python文件当做一个服务
server = flask.Flask(__name__)
chatbot = Chatbot(config, conversation_id=None)
def chat(msg):
message = chatbot.get_chat_response(msg)['message']
print(message)
return message
@server.route('/chat', methods=['post'])
def chatapi():
requestJson = request.get_data()
if requestJson is None or requestJson == "" or requestJson == {}:
resu = {'code': 1, 'msg': '请求内容不能为空'}
return json.dumps(resu, ensure_ascii=False)
data = json.loads(requestJson)
print(data)
try:
msg = chat(data['msg'])
except Exception as error:
print("接口报错")
resu = {'code': 1, 'msg': '请求异常: ' + str(error)}
return json.dumps(resu, ensure_ascii=False)
else:
resu = {'code': 0, 'data': msg}
return json.dumps(resu, ensure_ascii=False)
if __name__ == '__main__':
server.run(port=7777, host='0.0.0.0')
我们导入我们的逆向包。
from revChatGPT.revChatGPT import Chatbot
这是逆向包里面的源码,用于初始化一个服务,我们刚刚的类中调用了这个包。
然后去创建抛出这个服务的接口,方便被调用。
我们只要运行上面的代码就可以在7777端口直接与ChatGPT进行交互了。
我们使用接口工具测试一下,结果如下图,可以看到,接口正常工作并从ChatGPT得到了对话结果。
其中消息体:
{
"msg": "你会数学吗"
}
消息体是我们自定义的内容,你可以自己增加字段对接口进行功能扩展
本例子中的msg就是我们的发言内容
而接口返回的:
{
"code": 0,
"data": "是的,我会数学。我是一个大型语言模型,我可以回答各种问题,包括数学问题。你有什么数学问题需要我帮助你解决吗?"
}
这也是我们自己定义的,当code=0
时代表与ChatGPT
交互成功,此时data
为ChatGPT
反馈给我们的对话内容。而当code=1
时说明出现了错误,此时没有data
,但在msg
中返回了错误信息。
到这里我们就拥有了一个可以和ChatGPT交互到接口,通过这个接口,我们就能与ChatGPT进行对话
既然进行对话,那就需要一个输入框和一个按钮,你可以做一个网页来调用这个接口,这很简单,我们不在这里赘述了。
我们真正要做的是一个QQ机器人,其原理就是让QQ机器人监听到消息,并通过我们的接口把消息转发给ChatGPT,然后再把ChatGPT返回的对话内容发送给QQ用户,这样一个可以对话的机器人就做好了,具体做法,下文继续讲解。
实践继续-实践篇第二
上文我们实现了一个接口,用代码成功获取到了ChatGPT的对话内容,下面我们将继续完善QQ机器人相关逻辑,注意看代码中的注释。
为了更方便的将优化后(接入QQ机器人)的代码,与之前的代码比较,我开启一个本地比较,并收起了没有变动的代码。
机器人的交互实现逻辑,这个你可能会看不懂,因为我们是使用了一个机器人框架,那其实我们不要局限自己的思想,我们可以尝试自己修改使用其他机器人框架,比如云仔机器人,逻辑去自己实现。
我们使用的是go-cqhttp
。
所以说,这一写更改,你得去了解这个go-cqhttp
你才能看懂,不过我们要灵活学习,我们只需要了解思路便可,然后去官方文档找使用方法。
此时,这些代码已经拥有了处理好友请求、拉群请求、回复消息的功能。
可以看到,相对于上个文章,我们增加了很多代码,并且都加了注释
当然,这些代码看不懂没关系,可以照着我的文章改一下对应的地方,直接用。
大家来原创作者Q群玩儿,我也在里面:206867743
。
实践继续-实践篇第三
前两个文章我们已经解决了和ChatGPT通信的问题和QQ处理消息的问题,现在我们就需要处理如何监听QQ消息了。
在一次次的更新和遇到的问题中,原创作者和逆向包的很多作者都更新了很多内容,我们看看原创作者的更新记录:
2022-12-12 23:52
- 增加一个Windows专用版本,只能在Windows电脑或服务器上使用,可以自动获取cloudflare Cookie
2022-12-12 12:38 更新内容
- 增加CloudFlare配置,更新依赖,暂不支持账号密码,暂不知道CloudFlare配置多久需要更换一次,现在好像必须要翻墙了
2022-12-10 17:42 更新内容
- 增加账号密码支持,可以不使用token,直接使用账号密码
2022-12-10 00:23 更新内容
- 将每个QQ私聊区分,每个人私聊机器人都是一个独立的会话
- 将每个QQ群区分,每个QQ群是一个独立的会话
- 增加回复字数限制,超过限制转换成图片回复(见配置文件)
- 如果想要重置会话,对机器人发送:重置会话
简介
监听QQ消息并不需要我们写代码,因为市面上已经有很多开源QQ机器人框架,在这里我们使用go-cqhttp
官方文档: go-cqhttp
如果您感兴趣的话,可以阅读一下官方文档,如果不想看,直接看我的文章即可。
前提条件
- 您需要准备一个QQ号,不要使用自己大号
- 您需要准备一个OpenAi的账号,用来获取Token
- 一台服务器(可选,如果您想让机器人7x24小时在线的话,请准备一台,1核1G足以,外服最好)
注意:OpenAi(ChatGPT)的注册方式B站有一堆视频,随便参考一个就行。
不会注册也可以看看我博客的文章:一文教你快速注册OpenAi(ChatGPT)
(旧版本)机器人搭建教程我也是写过了:使用OpenGPT(ChatGPT)搭建 QQ 机器人
但是!注意,先前说过,现在的ChatGPT
套了一个CF
的CDN
,会拦截人机交互请求。
那我们现在,除了需要获取OpenAi
的session-token
,还需要获取cf_clearance
。
同时,我们还需要获取user-agent
。
前往控制台的网络标签里面查看,如果是空白,你发一句消息就可以。
复制之后写到配置文件中,也就是py/config.js
文件。
目前原创作者打包了两个版本,一个Linux的,麻烦在于cf
的CDN
交互令牌会在2H
内失效,我们需要手动获取并更新,麻烦。
另一个是window
版本,已经实现自动获取CloudflareCookie
。
配置指南
这个版本只能在Windows上使用,Windows电脑或服务器都行。
依然只支持token。
系统会自动打开谷歌浏览器获取Cloufflare相关Cookie,第一次运行时可能需要手动验证,请注意点一下。
注意,脚本它只能打开Google浏览器,没配置其他浏览器。
其他描述
那在作者最新版本的代码里面,也是新增了一部分功能。
自行研究。
然后很多逆向包作者也在想一个完美解决的办法,我们慢慢等待吧!
然后,请看看这句话:
尾述
写着一篇,我基本上是去看原创作者的代码和逆向包的代码,我是一个业余的Python
,但是我觉得,很多东西是可以去尝试的,通原理而致用,当你学会整个思路,那你也可以自己写一个自己的机器人,自己去配置去设计交互逻辑。
比如可以新增一个Markdown渲染器+代码高亮,将长文本以图片方式展示(虽然已经存在了),又比如,绑定一个不被拦截的域名,过长文本直接生成一个临时链接,点开查看,刚好通过网页渲染后,美观度高很多。
小简绝得,有兴趣有时间,都可以试试,下篇再见。