深度学习基础8(概率,期望,方差)

本文介绍了概率在深度学习中的应用,包括基本概率论、随机变量、期望和方差的概念。通过实例解释了如何利用概率进行预测,并探讨了大数定律在估计概率中的作用。此外,还讨论了离散和连续随机变量的区别,以及处理多个随机变量的情况。
摘要由CSDN通过智能技术生成

概率

简单地说,机器学习就是做出预测。

第一个例子:根据照片区分猫和狗

首先,问题的难度可能取决于图像的分辨率。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Mpp5QCRF-1648277048441)(C:\Users\Lenovo\Documents\Tencent Files\850604703\FileRecv\MobileFile\Image\EGOAB67%24FS2%~Z46L{[[8.png)]

虽然人类很容易以160×160像素的分辨率识别猫和狗, 但它在40×40像素上变得具有挑战性,而且在10×10像素下几乎是不可能的。

换句话说,我们在很远的距离(从而降低分辨率)区分猫和狗的能力可能会变为猜测。

如果完全肯定图像是一只猫,我们说标签𝑦是"猫"的概率,表示为𝑃(𝑦=“猫”)等于1。

第二个例子:给出一些天气监测数据,预测明天北京下雨的概率。 如果是夏天,下雨的概率是0.5。

在这两种情况下,我们都不确定结果,但这两种情况之间有一个关键区别。

  • 在第一种情况中,图像实际上是狗或猫二选一。

  • 在第二种情况下,结果实际上是一个随机的事件。

因此,概率是一种灵活的语言,用于说明我们的确定程度

基本概率论

大数定律(law of large numbers): 随着投掷次数的增加,这个估计值会越来越接近真实的潜在概率

首先,导入必要的软件包。

%matplotlib inline
import torch
from torch.distributions import multinomial
from d2l import torch as d2l

在统计学中,把从概率分布中抽取样本的过程称为抽样(sampling)。

可以把分布(distribution)看作是对事件的概率分配

将概率分配给一些离散选择的分布称为多项分布(multinomial distribution)。

为了抽取一个样本,即掷骰子,我们只需传入一个概率向量。

输出是另一个相同长度的向量:它在索引𝑖处的值是采样结果中𝑖出现的次数。

fair_probs = torch.o
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

NDNPOMDFLR

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值