深度学习
笃厚我无
这个作者很懒,什么都没留下…
展开
-
ElitesAI·动手学深度学习PyTorch版-第六次打卡
1、批量归一化和残差网络1.1 批量归一化(BatchNormalization)对输入的标准化(浅层模型)处理后的任意一个特征在数据集中所有样本上的均值为0、标准差为1。标准化处理输入数据使各个特征的分布相近批量归一化(深度模型)利用小批量上的均值和标准差,不断调整神经网络中间输出,从而使整个神经网络在各层的中间输出的数值更稳定。预测时的批量归⼀化训练:以batch为单位,...原创 2020-02-21 15:23:10 · 212 阅读 · 0 评论 -
ElitesAI·动手学深度学习PyTorch版-第五次打卡
卷积神经网络基础:卷积操作卷积核卷积核为1感受野和特征图填充和池化(计算公式)多个卷积核的运算原创 2020-02-18 16:08:22 · 275 阅读 · 0 评论 -
ElitesAI·动手学深度学习PyTorch版-第四次打卡
1、机器翻译机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。1.1 数据预处理将数据集清洗、转化为神经网络的输入minbatch.def preprocess_raw(text): text = text.replace('\u...原创 2020-02-17 14:10:33 · 246 阅读 · 0 评论 -
ElitesAI·动手学深度学习PyTorch版-第三次打卡
1、过拟合欠拟合及其解决方案1.1 模型选择、过拟合和欠拟合在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。训练误差指模型在训练数据集上表现出的误差;泛化误差指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以使用之前介绍过的损失函数,例如线性回归用...原创 2020-02-15 15:54:03 · 323 阅读 · 0 评论 -
ElitesAI·动手学深度学习PyTorch版-第二次打卡
1.文本预处理文本是一类序列数据,一篇文章可以看作是字符或单词的序列,本节将介绍文本数据的常见预处理步骤,预处理通常包括四个步骤:读入文本分词建立字典,将每个词映射到一个唯一的索引(index)将文本从词的序列转换为索引的序列,方便输入模型1.1 读入文本我们用一部英文小说,即H. G. Well的Time Machine,作为示例,展示文本预处理的具体过程。import co...原创 2020-02-14 15:35:11 · 266 阅读 · 0 评论 -
ElitesAI·动手学深度学习PyTorch版-第一次打卡
1、线性回归1.1 线性回归的基本要素模型为了简单起见,这里我们假设价格只取决于房屋状况的两个因素,即面积(平方米)和房龄(年)。接下来我们希望探索价格与这两个因素的具体关系。线性回归假设输出与各个输入之间是线性关系:数据集我们通常收集一系列的真实数据,例如多栋房屋的真实售出价格和它们对应的面积和房龄。我们希望在这个数据上面寻找模型参数来使模型的预测价格与真实价格的误差最小。在机器学习...原创 2020-02-12 16:29:07 · 280 阅读 · 0 评论 -
python3.7+anaconda3+vs2015+dlib19.16
来吧,因为python3.7不能够用pip安装这个dlib包,所以只能自己一步步来怼了。首先需要工具:vs2015(以上),cmake,boost,dlib;所有步骤我是按照这个博客来的:https://blog.csdn.net/zhang475546259/article/details/84104368#commentsedit可以先去看看这一家的博客,因为我用的是vs201...原创 2019-11-26 15:29:05 · 415 阅读 · 0 评论 -
对深度学习课程中关于梯度下降算法的优化总结
目前神经网络的优化方法有:dropout、正则化、针对样本的mini-batch gradient descent、动量梯度下降算法、RMSprob算法、Adams算法、学习率衰减等:1、dropout(减小过拟合): 是指在模型训练时随机让网络某些隐含层节点的权重不工作,不工作的那些节点可以暂时认为不是网络结构的一部分,但是它的权重得保留下来(只是暂时不更新而已),因为下次样本输入时它...原创 2019-11-04 14:30:36 · 521 阅读 · 0 评论