自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 最长公共子序列并输出它

力扣

2022-07-12 16:50:50 210

原创 【论文笔记】Multi-Sample Dropout for Accelerated Training and Better Generalization

论文简介:训练更快,泛化更强的Dropout:Multi-Sample Dropout论文标题:Multi-Sample Dropout for Accelerated Training and Better Generalization论文链接:https://arxiv.org/pdf/1905.09788.pdf论文作者:{Hiroshi Inoue}本文阐述的也是一种 dropout 技术的变形——multi-sample dropout。传统 dropout 在每轮训练时会从输入中随机选择一

2022-06-28 22:37:14 210

原创 Projected Gradient Descent(PGD)对抗训练

PGD对抗训练代码

2022-06-26 17:38:17 8415 7

原创 FGM对抗训练

​对抗训练无论是在CV领域还是在NLP领域都具有举足轻重的地位,在NLP比赛中,抗训练确确实实能够提升模型在具体任务上的泛化性能。​

2022-06-26 13:23:55 5379

原创 基于bert继续预训练

在目前的各项NLP任务中,如果要在特定任务或者领域应用文本分类,数据分布一定是有一些差距的。这时候可以考虑进行深度预训练。进行继续预训练,有利于提升任务的性能。

2022-06-25 22:40:18 2788

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除