![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
读论文
文章平均质量分 95
Charles Shan
这个作者很懒,什么都没留下…
展开
-
读论文系列:Image Super-Resolution Using Deep Convolutional Networks
推荐一读!何凯明 2015 年首次将深度学习引入超分辨率重建的文章。网络结构简单,容易看懂。原创 2024-07-12 11:27:21 · 766 阅读 · 0 评论 -
读论文系列:1-Lipschitz Layers Compared: Memory, Speed, and Certifiable Robustness
1-Lipschitz layers(一阶Lipschitz层)是深度学习中的一个概念,特别是在生成模型和正则化网络设计中。Lipschitz约束来源于数学中的Lipschitz连续性,它描述了一个函数输出变化的有界性。∣fx−fy∣≤K∣x−y∣∣fx−fy∣≤K∣x−y∣如果这个常数( K )恰好等于1,那么函数( f )就是1-Lipschitz连续的。原创 2024-07-11 20:40:51 · 732 阅读 · 0 评论 -
读论文系列:Intriguing properties of neural networks
论文中使用L-BFGS优化方法,L-BFGS介绍:https://blog.csdn.net/xian0710830114/article/details/128419401,本处就略过了。论文中,通过微小的扰动,叠加在要分类的图片上,再输入网络就可以导致网络发生严重的错误。这种扰动的设计通过优化完成,在保证网络发生错误的前提下,尽量减少扰动的幅度。https://github.com/Harry24k/IPNN-pytorch,使用了剃度下降替代L-BFGS,效果如下(7识别成了 0)原创 2024-07-11 13:10:16 · 1072 阅读 · 0 评论