自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(3)
  • 收藏
  • 关注

原创 深度学习作业_Week4

在左侧的网络结构中:对于输入特征矩阵,有串行的GConv1和GConv2,对于普通的组卷积的计算,只针对该组内的channel的信息进行计算。组卷积虽然能够减少参数和计算量,但是组卷积中不同组之间的信息没有交流。对于右侧而言:将输入特征矩阵先通过GConv,得到对应的特征矩阵,然后对于GConv1假设采用3个组,即g=3,对于得到的特征矩阵继续划分,每个组序号相同的再分到一个组,就可以得到通过Channel Shuffle后的特征矩阵,再通过GConv2,得到输出特征矩阵。首先取得数据,并引入基本函数库。

2023-08-04 12:25:57 135

原创 深度学习作业_Week2

1、dataloader 里面 shuffle 取不同值有什么区别?shuffle的意思就是让序列乱序,本质上就是让序列里面的每一个元素等概率分布在序列的任何位置,进行洗牌。shuffle取值为True的时候,会随机选取数据集中的数据,数据的输入顺序会被打乱;shuffle取值为False(默认值)的时候,输入数据的顺序是固定的。2、transform 里,取了不同值,这个有什么区别?在数据转换(transform)中,不同的取值可以导致不同的数据转换结果,这会对模型的训练和性能产生不同的影响。

2023-07-19 16:21:58 67

原创 深度学习作业_Week1

1、在每个卷机后面添加了Relu激活函数,解决了Sigmoid的梯度消失问题,使收敛更快。2、使用随机丢弃技术(dropout)选择性地忽略训练中的单个神经元,避免模型的过拟合3、添加了归一化LRN层,使准确率更高。

2023-07-13 12:11:56 84 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除