啃书笔记(Deep Learning (Ian Goodfellow)
香槟酒气满天飞
这个作者很懒,什么都没留下…
展开
-
《Deep Learning (Ian Goodfellow)》深度模型的优化
深度模型的优化1. 自适应学习率算法动量(momentum)一个数组中的元素分布在若干维坐标的规则网格中,称之为张量。生成子空间(span)一组向量的生成子空间是原始向量线性组合后所能抵达的点的集合。范数(norm)在机器学习中,我们经常使用被称为范数的函数衡量向量大小。特征分解将矩阵分解成一组特征向量和特征值。奇异值分解(SVD)将矩阵分解为奇异向量和奇异值。2. 实例主成分分析(PCA)PCA是一种降维的方法...原创 2020-12-14 15:22:51 · 180 阅读 · 0 评论 -
《Deep Learning (Ian Goodfellow)》机器学习基础
机器学习基础1. 学习算法任务分类、输入缺失分类、回归、转录、机器翻译、结构化输出、异常检测、合成和采样、缺失值填补、去噪、密度估计或概率质量函数估计经验根据学习过程中的不同经验,机器学习算法可以大致分类为无监督(unsuper-vised)算法和监督(supervised)算法,不过它们之间界线通常是模糊的。2. 容量、过拟合和欠拟合这两个因素对应机器学习的两个主要挑战: 欠拟合(underfitting)和过拟合(overfitting)。欠拟合是指模型不能在训练集上获得足够低的原创 2020-11-17 18:37:40 · 675 阅读 · 0 评论 -
《Deep Learning (Ian Goodfellow)》概率与信息论
概率与信息论1. 部分数学概念张量(tensor)一个数组中的元素分布在若干维坐标的规则网格中,称之为张量。生成子空间(span)一组向量的生成子空间是原始向量线性组合后所能抵达的点的集合。范数(norm)在机器学习中,我们经常使用被称为范数的函数衡量向量大小。特征分解将矩阵分解成一组特征向量和特征值。奇异值分解(SVD)将矩阵分解为奇异向量和奇异值。2. 实例主成分分析(PCA)PCA是一种降维的方法...原创 2020-11-17 15:27:13 · 289 阅读 · 1 评论 -
《Deep Learning (Ian Goodfellow)》线性代数
线性代数1. 部分数学概率张量(tensor)一个数组中的元素分布在若干维坐标的规则网格中,称之为张量。2. 实现用距离公式计算出待分类数据和数据集的距离得出距离最近的n个距离值在最近n个距离值中找出最多的类别该类别即待分类数据的类别3. 总结简单有效但是占用大量空间和时间可用于简单分类...原创 2020-11-14 14:44:05 · 197 阅读 · 1 评论