自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(4)
  • 收藏
  • 关注

原创 size()

size = x.size()[1:] # all dimensions except the batch dimension

2022-01-07 13:38:43 1241

原创 feature map

feature map:在每个卷积层,数据都是以三维形式存在的。你可以把它看成许多个二维图片叠在一起,其中每一个称为一个feature map。在输入层,如果是灰度图片,那就只有一个feature map;如果是彩色图片,一般就是3个feature map(红绿蓝)。层与层之间会有若干个卷积核(kernel),上一层和每个feature map跟每个卷积核做卷积,都会产生下一层的一个feature map。feature map(下图红线标出) 即:该层卷积核的个数,有多少个卷积核,经过卷积就会

2021-12-31 15:36:34 1538

原创 Knowledge evolution

1.dropout与spiltnet区别:例如,如果一个玩具网络层有10个神经元,dropout会为所有10个神经元提供一个独立的表示。相比之下,SplitNets只对拟合假设拟合假设内的神经元进行了独立表征。因此,分裂掩模M提供了更精细的控制级别。2.扩展dropout的trick:因为深层网络输入图片的某些通道不会被激活,即会丢失部分特征信息。Weighted Channel Dropout (WCD):three extra modules to a deep network:1.

2021-12-31 15:25:52 1765

原创 训练过程:用小批量随机梯度下降训练神经网络

2021-12-30 20:30:46 569

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除