知识经验分享
文章平均质量分 68
总结学习工作中的关键信息
liuz_notes
Night gets darkest right before dawn. What doesn't kill you makes you stronger. ----LinkinPark
展开
-
《神经网络与深度学习》摘录与笔记
本博客为博主阅读完Michael Nielsen的《Neural Networks and Deep Learning》后所摘录的知识骨架,和相关笔记。原创 2019-08-12 11:19:07 · 517 阅读 · 0 评论 -
如何高效阅读论文(研究僧萌新必读)
研究者们由于会议、研讨、关注所在领域的最新进展和撰写文献综述的原因,需要大量阅读文章。然而如何高效地阅读文章是一项十分关键却从未被教授的技能,因此刚入学的研究生必须不断试错,在学习过程中浪费了大量的时间,经常被迫进行学习。本博客在第一部分详细介绍了如何通过“三遍法”快速高效的阅读文献,掌握文章内容。在第二部分中说明了如何三步走完成文献调研,这对于初涉科研的研究僧可以原创 2020-09-15 23:04:31 · 663 阅读 · 0 评论 -
数据降维:PCA、CCA、LDA、ICA的区别及适用场景
比较PCA: 无监督学习,找到最优重构子空间,使主成分能刻画样本绝大部分的方差。应用:数据降维、Eigenfaces、PCA-SIFTCCA(Canonical Correlation Analysis): 无监督学习,对两组变量降维,找到一个最优相关子空间进行相关性分析。应用:问卷调查中变量的相关性分析、跨模态学习。LDA: 有监督学习,学习一个可分性最好的投影方向。相当于是白化(whitening) + PCA,得到的是假设条件下的最优分类子空间(假设每个类都是单模态高斯分布、每个原创 2020-12-24 20:18:58 · 6608 阅读 · 1 评论 -
2023届-计算机视觉算法岗实习面经
计算机视觉(CV)算法岗暑期实习面经原创 2022-07-04 19:11:42 · 1802 阅读 · 0 评论 -
为什么加深神经网络如此有效?从卷积滤波器解释
与没有加深层的网络相比,加深了层的网络可以用更少的参数达到同等水平(或者更强)的表现力。我们通过结合卷积运算中的滤波器大小来理解。原创 2019-11-27 11:15:23 · 1688 阅读 · 0 评论 -
解决网页不能复制和粘贴问题(清晰易懂)
写在前面本人由于网上填报信息的时候遇到大段文字部分需要填写,而在网页上又不能粘贴,找了很多资料并自己尝试之后,如愿解决问题。现将方法总结于此,方便和我一样有如此困扰的兄dei查阅、备忘。注意:本方法不用禁用JS!不用禁用JS!简单快捷。操作步骤首先打开浏览器,进入你要复制或者粘贴的页面。下面将以我的例子作为讲解;按下F12进入开发者模式,我这里用的是谷歌浏览器,其他的浏览器请自行...原创 2019-08-05 21:04:18 · 13142 阅读 · 0 评论 -
机器学习常用特征相似度或距离度量【Pytorch实现】
Pytorch实现机器学习常用特征相似度或距离度量,包括余弦相似度、距离、KL散度原创 2021-09-02 21:02:17 · 1601 阅读 · 0 评论 -
神经网络的学习技巧(含损失函数与激活函数关系、初始值、优化函数、DropOut等等)
0 写在前面本文为了让初学者更加简单、直观地理解神经网络在训练中的技巧,以及明白为什么这样做能有效地提高训练效率,将神经网络中的本质过程一一阐述,弄清楚这些原理对初学者大有裨益。本博客的内容绝大部分摘录于[日]斋藤康毅的《深度学习入门——基于Python的理论与实现》1 输出层函数与损失函数的联系神经网络在进行反向传播时,经过输出层函数得到预测输出与监督数据的差分yi−tiy_i - ...原创 2019-11-27 11:19:27 · 1163 阅读 · 0 评论