机器学习
ccluqh
这个作者很懒,什么都没留下…
展开
-
PCA和SVD
https://blog.csdn.net/qq_24464989/article/details/79834564转载 2020-02-27 18:04:59 · 136 阅读 · 0 评论 -
随机森林为何要有放回抽样?
最近的一次面试经历中,有被问到过随机森林为什么要用有放回的随机采样。平时的自己确实没有去仔细想过这些问题,所以最终惨淡而归。好了,回到正题吧,随机森林是可以降低模型的方差,这里借鉴了下其它同学的回答,记录一下。1. 如果不放回抽样,那么每棵树用的样本完全不同,基学习器之间的相似性小,投票结果差,模型偏差大;2. 如果不抽样,那么基学习器用所有样本训练,基学习器太相似差异性太小,模型的泛...转载 2020-02-13 23:42:03 · 2964 阅读 · 1 评论 -
卷积神经网络CNN的反向传播原理
https://blog.csdn.net/qq_16137569/article/details/81477906(最后对a^l-1的推导有误,参考下一篇)https://www.cnblogs.com/pinard/p/6494810.html转载 2020-01-27 19:47:55 · 138 阅读 · 0 评论 -
LSTM-基本原理-前向传播与反向传播过程推导
https://blog.csdn.net/lrs1353281004/article/details/81188250转载 2020-01-27 18:29:58 · 280 阅读 · 0 评论 -
什么是1*1卷积?1*1的卷积核和全连接层有什么异同?
简单回答一下:1、数学本质上一样,都是特征图中的元素乘以权重再求和。全连接是把特征图拆开组成一个一维向量,再乘以一个权重向量,这两个向量中的元素一一对应所以输出结果是一个值。而1*1卷积,我们知道卷积核实质上就是权重,1*1的卷积核那就是表明只由一个权重组成,如果特征图尺寸也是1*1的话,那输出就是一个值,此时与全连接完全一样。但是如果特征图尺寸不是1*1,而是w*h的话,那么1*1的卷积输出...原创 2020-01-27 15:39:36 · 19433 阅读 · 3 评论 -
入门| 一文了解神经网络中的梯度爆炸
选自MACHINE LEARNING MASTERY作者:Jason Brownlee机器之心编译参与:路雪、刘晓坤梯度爆炸指神经网络训练过程中大的误差梯度不断累积,导致模型权重出现重大更新。会造成模型不稳定,无法利用训练数据学习。本文将介绍深度神经网络中的梯度爆炸问题。阅读本文,你将了解:什么是梯度爆炸,模型训练过程中梯度爆炸会引起哪些问题;如何确定自己的网络模型是否出现梯度爆炸;...转载 2020-01-26 15:50:11 · 340 阅读 · 0 评论 -
神经网络的偏置(阈值)的意义
为什么是+b?b是实数,可为负转载 2020-01-26 14:20:12 · 5277 阅读 · 0 评论 -
字节跳动面试题.实现kmeans「numpy」
import numpy as np'''欧式距离'''def ecludDist(x, y): return np.sqrt(sum(np.square(np.array(x) - np.array(y))))'''计算簇的均值点'''def clusterMean(dataset): return sum(np.array(dataset)) / len(datas...转载 2019-11-19 15:12:03 · 356 阅读 · 0 评论