统计机器学习
文章平均质量分 67
峡谷的小鱼
这个作者很懒,什么都没留下…
展开
-
Pytorch SGD随机梯度下降法
pytorch 使用随机梯度下降优化变量。原创 2022-04-24 05:58:33 · 1103 阅读 · 0 评论 -
PyTorch实现:经典网络LeNet
PyTorch实现LeNet网络一. LeNet 网络介绍我们将介绍LeNet,它是最早发布的卷积神经网络之一,因其在计算机视觉任务中的高效性能而受到广泛关注。 这个模型是由AT&T贝尔实验室的研究员Yann LeCun在1989年提出的(并以其命名),目的是识别图像 :cite:LeCun.Bottou.Bengio.ea.1998中的手写数字。 当时,Yann LeCun发表了第一篇`在这里插入代码片`通过反向传播成功训练卷积神经网络的研究,这项工作代表了十多年来神经网络研究开发的成果。L原创 2022-01-19 04:01:17 · 2997 阅读 · 0 评论 -
随机变量,分布函数(CDF)、概率质量函数(PMF)和概率密度函数(PDF)
随机变量概率空间(Ω,A,P)(\Omega, {\mathcal{A}}, P)(Ω,A,P),测度P,随机变量是一个可测映射X:Ω→RX: \Omega \to \realsX:Ω→R,给Ω\OmegaΩ中每一个元素分配一个实数值。“可测”是指对于每个x,{ω,X(ω)≤x}⊂A\{\omega , X(\omega) \le x\} \subset \mathcal{A}{ω,X(ω)≤x}⊂A。Example 1:抛一枚硬币10次,令 X(ω)X(\omega)X(ω) 表示头像向上的次数。如原创 2020-08-21 22:29:15 · 2320 阅读 · 0 评论 -
概率基础,从样本空间到贝叶斯公式
概率基础1 概率1.1 样本空间和事件样本空间Ω\OmegaΩ是一个实验结果的所有可能的集合。ω∈Ω\omega\in\Omegaω∈Ω是样本的一个元素。Ω\OmegaΩ的子集称为事件。给定一个事件AAA,让Ac={ω∈A,ω∉A}A^c = \{ \omega \in A, \omega \notin A \}Ac={ω∈A,ω∈/A}是AAA的补集。对于一个递增集合序列:A1⊂A2⊂A3⊂⋯⋯A_1 \subset A_2 \subset A_3 \subset \dotsm \dotsmA1原创 2020-08-19 21:40:33 · 405 阅读 · 0 评论