【王木头学科学|深度学习】4. 损失函数是如何设计出来的?直观理解“最小二乘法”和“极大似然估计法”

笔记来源于B站UP主@王木头学科学
笔记来源https://www.bilibili.com/video/BV1Y64y1Q7hi

1 损失函数

损失函数:标准模型与神经网络训练出来的模型相差多少的定量表达,

  • 最小二乘法
  • 用这张图来表示处理这张图的过程,xi表示输入的图像,只有两种结果,0和1,是猫表示1不是猫表示0,输出结果yi(选用的是sigmoid函数)是(0,1)零到一之间,其得出的结论是输入一张照片经过神经网络,输入的结果是有多大的概率像猫。
    在这里插入图片描述
    所以要比较xi和yi两个结果,两个结果相差越小,神经网络模型就越好。
    对所有的输入输出求最下的差值,但是取绝对值在定义域内有时候不可导,所以通常是求平方,虽然最小值可能发生变化,但是不影响xi和yi之间的关系。
    在这里插入图片描述
    在这里插入图片描述

2. 极大似然估计

  • 什么是似然
    真实世界是抛硬币的例子(右边),由此反推它的概率模型(左边),假设它的概率模型是左边这个,在这个模型下,抛出7枚正面3枚反面的可能性是下面的计算结果
    在这里插入图片描述
    由此计算出中间的概率模型可能性最大。

在这里插入图片描述
上面计算得到的值和概率有点类似,都是一种可能性,由真实世界反推得出来的值,叫做似然值
似然值是真实的世界已经发生,假设有很多模型,在某个概率模型下发生某种情况的可能性,叫做似然值。找出似然值最大的,也就是可能性最高。这叫做极大似然估计法。挑出似然值最大的那个概率模型和它本来的概率模型,是最接近的。

现用极大似然估计法:
在这里插入图片描述
因为xi只有0和1两种情况,所以可以展开成伯努利分布
在这里插入图片描述
在这里插入图片描述
上式子是连乘的,现在变成连加,之后找到这个式子的最大值即为最接近人脑概率模型(最小值加上负号)
在这里插入图片描述

最小二乘法(Least Squares Method)和极大似然(Maximum Likelihood Estimation,MLE)都是统计中用于估计参数的重要方,但它们的基本理念和应用场合有所不同。 **最小二乘法**: - 基本思想:这种方通常用于线性回归问题,目标是最小化残差平方和,即实际值与预测值之间的差距的平方之和。它假设数据误差服从高斯分布,且均值为0,标准差已知或未知。 - 使用场景:当模型与真实关系存在线性偏差时,比如拟合一条直线(简单线性回归)或多项式曲线。 - 参数求解:通过求解含有待估参数的矩阵方程,找到使误差平方和最小化的参数组合。 **极大似然**: - 基本思想:这种方关注的是根据观测数据,寻找最有可能产生这些数据的模型参数。它是基于概率论中的似然函数,即给定模型参数的概率密度函数的最大值。 - 应用广泛:不仅限于线性模型,适用于各种离散或连续随机变量的模型,包括但不限于多项式分布、指数分布、正态分布等。 - 参数求解:寻找使得数据对数似然函数最大的参数值,通常涉及到数值优化方如梯度上升或牛顿。 **区别总结**: 1. 最小二乘法更侧重于误差的平方和最小化,而极大似然则关注数据出现的概率最大。 2. 最小二乘法通常假定误差为线性和加性的,而极大似然则更为灵活,适应不同类型的分布。 3. 最小二乘法直接求解最优参数,计算过程相对直观;极大似然可能需要迭代求解,且结果依赖于初始猜测。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值