![](https://img-blog.csdnimg.cn/20190918140158853.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
论文阅读
文章平均质量分 91
相关领域论文阅读
weixin_45674607
这个作者很懒,什么都没留下…
展开
-
When NAS Meets Robustness: In Search of Robust Architectures against Adversarial Attacks
(1)首先第一点,也就是作者在论文中构建鲁棒性的指标,并以此构建模型。同时建模的角度并不是以准确率为目标,而是以鲁棒性为目标,相较于传统的引入正则项来获得准确率和鲁棒性的双目标,角度很好;在构建损失函数的时候,并没有引入其他超参,这一点很值得借鉴。(2)论文中的实验部分,在分析结果的时候,首先是对自己的结论点进行回扣,另一点就是在分析结果的时候能够去层层递进,也就是当遇到模型存在问题时,能够理性分析,去做实验改进。原创 2023-03-27 21:13:16 · 118 阅读 · 0 评论 -
Orthant Based Proximal Stochastic Gradient Method for `1-Regularized Optimization
Prox-SG步骤的更新公式的作用是根据当前梯度估计和学习率,对当前权重进行更新,并进行L1正则化。这个步骤的更新公式包括两部分:首先是根据当前梯度和学习率计算出一个更新量,然后将这个更新量应用于当前权重,再进行L1正则化。整个步骤的目的是通过随机梯度下降法进行权重的更新,并通过L1正则化来实现权重稀疏化。这样可以使模型具有更好的泛化能力和更好的可解释性,同时避免过拟合的问题。原创 2023-03-09 21:15:36 · 197 阅读 · 0 评论 -
YOU ONLY SEARCH ONCE: SINGLE SHOT NEURAL ARCHITECTURE SEARCH VIA DIRECT SPARSE OPTIMIZATION
从剪枝的角度出发,使用稀疏正则化,以获得一个高效的网络结构原创 2023-02-28 20:04:29 · 97 阅读 · 0 评论 -
Is BERT Really Robust? A Strong Baseline for Natural Language Attack on Text Classification
文章目录Is BERT Really Robust? A Strong Baseline for Natural Language Attack on Text Classification and Entailment摘要介绍模型训练和结果讨论结论 Is BERT Really Robust? A Strong Baseline for Natural Language Attack on Text Classification and Entailment # 目前是第一次去粗略的阅读论文,在后面回去复原创 2022-04-03 16:27:20 · 681 阅读 · 0 评论