pytorch深度学习笔记

copy()是浅拷贝,它创建一个新的对象,但是只复制了对象本身及其顶层元素的引用而不是元素的内容。

deepcopy() 是深拷贝,它创建一个全新的对象,递归地复制原始对象及其所有嵌套的对象。这意味着它会复制对象本身以及对象中的所有元素,包括嵌套的列表、字典等

模型通过学习率获得稳定性。学习率有助于在算法中建立信任。

通过更新权重来减少误差的整个过程称为梯度下降

反向传播是一种调整权重的技术,使损失值尽可能小。

enumerate()是Python的内置函数之一,一般用于for循环。enumerate()在遍历中可以获得索引和元素值。
以下是enumerate()函数的语法:
enumerate(sequence, [start=0])

微分过程:通过非常小的增量更新一个参数,然后计算相应的梯度

前向传播的输出是用于计算损失值的预测结果。

随机梯度下降是一个在梯度方向调整权重来减少损失的过程。

过大的学习率会导致权重爆炸,过小的学习率则根本不会改变权重。

隐藏层也称卷积层、池化层、全连接层、归一化层

  • 3
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值