自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(1)
  • 收藏
  • 关注

原创 为什么预训练模型只要FT或者PT就效果很好

在我看来,说白了还是这种预训练模型已经见过了各种各样组够多的数据,我们去FT和PT其实就是在告诉模型我想利用如何利用你,我需要你给我做出什么样子的回答。尤其是PT这种模型,为什么few-shot和zero-shot就能起作用,其实就是模型本身已经见过组够多的数据了,我们只需要几个样本告诉他我们需要的是什么就够了。说到底如果想做出好的效果,大的预训练模型是一定要有的,因为目前来讲的机器学习和深度学习的模型都是需要样本训练,往往样本越多效果就越好,显然BERT、GPT3这种大模型见过的数据和我们自己组建模型所.

2021-11-19 23:19:58 1141

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除