![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
知识总结
文章平均质量分 75
Fu_Xingwen
这个作者很懒,什么都没留下…
展开
-
helium的chromedriver版本不对应
helium的chromedriver版本默认为89 而你电脑上的chrome一般版本比较新 所以要将helium包里面的chromedriver.exe替换为对应的新版本; helium包里面的chromedriver.exe在哪里呢? 你直接 pip uninstall helium 然后提示: Found existing installation: helium 3.0.8 Uninstalling helium-3.0.8: Would remove: d:\programdata\anacond原创 2022-04-26 16:00:37 · 748 阅读 · 0 评论 -
内容梳理a
Resnet: 在2015年之前,人们有个信念,就是网络越深、越宽,表征能力就越强。所以训练误差应该是会随着网络的加深而逐渐变小的,而测试误差则不一定,因为过深的模型可能是过拟合的。 然而何恺明等人却发现,加深模型到一定程度时,测试误差和训练误差都要比浅的模型的要高,这就对原来的信念提出了挑战。他将这一发现称之为深层模型的退化现象。而Resnet通过残差学习,解决了大型网络(层数多)的退化问题。 工作原理: 目前有很多学者对ResNet发挥作用的原因进行了解释。 根据BP算法中的导数的链式法则,将该公式原创 2022-04-01 14:09:29 · 2730 阅读 · 0 评论 -
硕士项目总结
据说在人工神经网络(artificial neural network, ANN)发展初期,由于无法实现对多层神经网络(包括异或逻辑)的训练而造成了一场ANN危机,**到最后BP算法的出现,才让训练带有隐藏层的多层神经网络成为可能。**因此异或的实现在ANN的发展史是也是具有里程碑意义的。异或之所以重要,是因为它相对于其他逻辑关系,例如与(AND), 或(OR)等,异或是线性不可分的。如下图: .............................................原创 2022-03-25 10:54:55 · 3925 阅读 · 0 评论 -
深度学习笔记
20220109 常用的 Normalization 方法:BN、LN、IN、GN? 卷积的反向传播 Swin Transformer 各种池化的优缺点原创 2022-01-09 20:47:07 · 1530 阅读 · 0 评论