DIVE INTO DEEP LEARNING学习笔记1

闲着没事写一下读书笔记

第一章:引言

第二章:预备知识

第三章:线性神经网络

       用线性代数表示法进行建模。在建模的过程中,我们需要一种模型质量的度量方式和一种能够更新模型以提高模型质量的方法。其中,前者为损失函数,后者为随机梯度下降。在训练模型中,我们能通过矢量化加速来达到同时处理小批量样本的目的。矢量化代码能够带来数量级的加速。同时,也通过简洁代码提高了准确率。在高斯噪声的假设下,最小化均方误差等价于对线性模型的极大似然估计(即最小目标函数和执行极大似然估计等价)。线性回归模型也是一个简单的神经网络,是单层网络结构,这一单层被称为全连接层。小批量随机梯度下降算法是一种优化神经网络的标准工具。

        softmax回归也是一个单层网络,是一个线性模型。它获取一个向量并将其映射为概率。softmax回归适用于分类问题,它使用了softmax运算中输出类别的概率分布。

        熵:数据的不确定性。

        信息熵:系统有序化的一个度量。系统越混乱,信息熵越低;系统越有序,信息熵越高。

        交叉熵:一个衡量两个概率分布之间差异的很好的度量,它测量给定模型编码数据所需的比特数。

        数据迭代器是获得更高性能的关键组件。依靠实现良好的数据迭代器,利用高性能计算来避免减慢训练过程。

        训练softmax回归循环模型与训练线性回归模型非常相似:先读取数据,再定义模型和损失函数,然后使用优化算法训练模型。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值