2.29。

本文概述了阅读学术论文的有效步骤,包括理解题目、摘要和结论,关注实验方法,尤其是ImageNet预训练在其他数据集的应用。还介绍了SGD优化、ResNet网络结构、批量归一化(BN)以及卷积神经网络(CNN)和Transformer中的自注意力机制。
摘要由CSDN通过智能技术生成

读论文步骤(李沐老师)
1、题目 摘要 结论 实验方法
2、看图表 相关文献改进
3、详细阅读

学了忘忘了学。。。

  • ImageNet数据集权重预训练
    Imagenet上的模型预训练权重用到CIFAR10上

    预训练权重就是 将在大规模数据上训练好的权重初始化,再训练自己的数据,效果会比随机初始化好

  • SGD 随机梯度下降法
    SGD
    在每一次迭代中,随机选择一个小批量的样本来计算损失函数的梯度,并用梯度来更新参数。这种随机性使得算法更具鲁棒性,能够避免陷入局部极小值,并且训练速度也会更快。

  • ResNet
    ResNet网络结构详解、完整代码实现
    随着网络加深,准确率不下降
    达到最优 继续加深网络
    BN原理 一批数据的特征图 均值为零
    标准化 收敛快

  • CNN
    一文读懂卷积神经网络(CNN)
    卷积层和池化层
    局部区域加权求和
    卷积核的个数=输出的通道数 减少通道数
    池化层不引入参数

  • 自注意力
    transformer中QKV的通俗理解
    非自主 物体本身的特征十分突出
    自主 先验知识的介入下关注到 权重
    计算权重 加权求和
    QKV
    QK点乘 相似度! softmax归一化 0~1 在V上的权重在这里插入图片描述
    在这里插入图片描述

  • 10
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值