深度学习
文章平均质量分 93
⼏年前,在⼤公司和初创公司中,并没有⼤量的深度学习科学家开发智能产品和服务。我们中年轻⼈(作者)
进⼊这个领域时,机器学习并没有在报纸上获得头条新闻。我们的⽗⺟根本不知道什么是机器学习,更不⽤
说为什么我们可能更喜欢机器学习,⽽不是从事医学或法律职业。机器学习是⼀⻔具有前瞻性的学科,在现
实世界的应
之墨_
这个作者很懒,什么都没留下…
展开
-
【深度学习】—线性回归 线性回归的基本元素 线性模型 损失函数 解析解 随机梯度下降
为了解释线性回归,我们举一个实际的例子:我们希望根据房屋的面积(平方英尺)和房龄(年)来估算房屋价格(美元)。每行数据(比如一次房屋交易相对应的数据)称为样本(sample),也可以称为数据点(data point)或数据样本(data instance)。损失函数(loss function)用于量化目标的真实值与预测值之间的差距,通常是一个非负数,数值越小表示模型预测越准确,完美预测时损失为 0。实际上,在许多任务中,那些难以优化的模型往往表现得更好,因此,学会如何训练这些难以优化的模型非常重要。原创 2024-09-28 21:10:22 · 825 阅读 · 0 评论 -
【深度学习】—— 自动微分、非标量变量的反向传播、 分离计算、 Python控制流的梯度计算
然而,虽然这些更奇特的对象确实出现在高级机器学习中(包括深度学习中),但当我们调用向量的反向计算时,我们通常会试图计算一批训练样本中每个组成部分的损失函数的导数。重要的是,我们不会在每次对一个参数求导时都分配新的内存。使用自动微分的一个好处是:即使构建函数的计算图需要通过 Python 控制流(例如,条件、循环或任意函数调用),我们仍然可以计算得到的变量的梯度。然后我们记录⽬标值的计算,执⾏它的反向传播函数,并访问得到的梯度。在我们的例子中,我们只想求偏导数的和,所以传递一个 1 的梯度是合适的。原创 2024-09-28 17:54:29 · 857 阅读 · 0 评论 -
【深度学习】— 微积分—导数和微分 、导数的定义 、导数的数值计算 、导数的符号 、常用导数规则 、微分法则 、应用示例 、偏导数 、梯度 、梯度的常用公式 、链式法则
微分和积分是微积分的两个分⽀,前者可以应⽤于深度学习中的优化问题。• 导数可以被解释为函数相对于其变量的瞬时变化率,它也是函数曲线的切线的斜率。• 梯度是⼀个向量,其分量是多变量函数相对于其所有变量的偏导数。• 链式法则使我们能够微分复合函数。原创 2024-09-28 11:57:26 · 838 阅读 · 0 评论 -
【深度学习】— 线性代数基础-标量、向量、矩阵、张量、张量算法的基本性质、按元素运算示例、Hadamard积、标量与张量运算、广播机制、降维、点积、矩阵-向量积、矩阵-矩阵乘法、范数
标量、向量、矩阵和张量是线性代数中的基本数学对象。向量是对标量的泛化,矩阵是对向量的泛数。标量、向量、矩阵和张量分别具有零、一、二和任意数量的轴。通过sum和mean函数,张量可以沿指定轴降低维度。两个矩阵的按元素乘法称为Hadamard积,它与矩阵乘法不同。在深度学习中,常用的范数包括L1范数、L2范数和Frobenius范数。我们可以对标量、向量、矩阵和张量执行各种操作。原创 2024-09-27 18:06:17 · 1059 阅读 · 0 评论