怎么破解呢?亲爱的,GPT这种没有开源的就不要想了,大模型开源技术哪家强?我是都折腾一遍,深度体验一个大模型,必须要给它来这么一套,那才能真的玩残它。
各位一定要用自己的数据集特个性化的那种,这样你才能真的品出到底哪个真的好。先准备这样的chat聊天数据集,有几千就搞几千,有几万就搞几万,保存为jasonl文件,记住,纯度比量重要太多了。那你怎么将你的文本数据集转为对话数据集呢?这活很累很烦很燥,不过有方法有技巧,我们之前聊过完成大模型的第一招,那就微调。先别用那些打折GPU的花招,就全量微调71参数的模型,4个A100就行了。别慌,别喷,四张这么强的显卡,1小时成本也才50多块,很划算。
代码里一定要接上wandb这训练过程可是话多好,实时在线看你模型的训练情况,非常的完美,损失基本降无可降了,就可以早停试下效果了。自己的数据集自己各种绕着问,自己体会自己品,然后扩大参数规模。如果是拉满,那就7B, 13B, 70B一路玩上去,同样的问题去各种问自己品区别。那些所谓的基准测试都是评综合能力的,说实话排行榜的水分也很大,对于我们这种小数据集没啥意义,就自己品实际看输出效果就行。
微调,上完上玩残大模型的第二招,继续预训练。微调就相当于你让一个博士去上一个技能培训班,往某一个特定的方向精化了一下,有效果,但是效果没那么大。你想,人家都已经读到博士了,人家固化的认知和偏见哪那么容易被改变呢?那咋办?那就在他读书的过程中插一杠子,将你数据对进去,从底层改变他的认知。再就是继续运用面上面,你的对话数据哪里来的各种文本对不对?把这个基础文本也准备成建成文档,加载大模型参数开远了,你随便下随便用,然后继续预训练。来它个10万步,你只要这么干了,你就会发现,继续预训练完以后再微调才是个人和小团队玩大模型的最佳路径输出效果跟只微调完全不一样。如果你的数据集特别的非主流不和谐的那种,你这么玩会有惊喜。继续运营量加微调玩,那就上第三招了,疯狂的跑to本,自动化的带你找本多少账,疯狂的干活,就像我这么干,一天跑他个2000万to本,一个模型到底好不好?跑几天你就省资了。
就这么一整套三招整账,啥模型都被你玩残了。把各大开源模型都上一遍,你就会知道哪个是真的好用。如果不是真的闲也没有必要,因为真正开源大模型只有密室头,他才是真正的apple92点,真正的完全彻底开源,这那不就可以搞事情了吗?不过即使是这样密室头,我发布的模型也是被招人和地球的主人们严格审核过的,这就是所谓的对齐和超级对齐本来就是好事。
防止大模型做坏事嘛,但是什么是好事,什么是坏事,什么是好、什么是坏、什么是真、什么是假,他们说了算,所以是不是很不爽?特别是opp的左扎控制的大模型,那就更让人不爽了,是不是很想把这双无形的手从大模型上给他割掉?这个世界应该有不对齐、超级不对齐和各自对齐。那怎么割呢?就是割数据集,将数据集中的一切模拟两口打太极,拒绝回答这一种,尽可能的删掉,最大化削去偏见和拒绝回答的能力,这就是海豚数据集与miss组合,一种未经审核的模型,也只是在一定程度上。
不过基本上你问啥好的或者不好的,不方便展示,他都可以教你,也就是工具,他不分好坏,就看你怎么用了。遇强则强,遇坏则贼坏。具体怎么干的,这位大娘的博哥有详细介绍,各位是不是还想更彻?那就把海豚的这套破解审核的思路,用我们上面的实践的预训练加微调,一整套的打出来,你才能真的有一把属于你自己的剑去打磨各位,希望你成侠屠纳恶龙,常回去看看,谢谢!
【被阉割的大模型是不是用的很烦?】
最新推荐文章于 2024-07-12 15:56:08 发布
![](https://img-home.csdnimg.cn/images/20240711042549.png)