深度学习——参数共享(parameter sharing)

aAT1t9p7ShM

note:

neral network for example:  intput --> 1 layer -->  2 layer--> 3layer -->      4 layer -->  output

layer 1:have many feature maps input into layer 2.

layer2: have feature maps ,each feature map connect with layer1, do many convolution, each convolution have the same parameter. 

 That is,  parameter sharing is within a feature map.

each feature map in layer2 will detect the same feature in all layer1 feature maps, so the feature move , layer2 will have the same result..

lay1's feature maps becomes input chinnels  to layer2.

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
根据引用[1],超参数是在开始训练之前设置的,而在训练期间未进行优化的一组参数。在Halcon深度学习,可以通过设置超参数来控制模型的训练过程。以下是一些常见的Halcon深度学习参数及其作用: 1.学习率(learning rate):控制模型参数在每次迭代更新的速度。如果学习率过高,可能会导致模型无法收敛;如果学习率过低,可能会导致模型收敛速度过慢。可以通过设置较小的学习率来使模型更加稳定。 2.批量大小(batch size):指定每次迭代使用的样本数量。较大的批量大小可以加快训练速度,但可能会导致模型过拟合;较小的批量大小可以减少过拟合,但训练速度会变慢。 3.正则化参数(regularization parameter):用于控制模型的复杂度。较大的正则化参数可以减少过拟合,但可能会导致欠拟合;较小的正则化参数可以提高模型的拟合能力,但可能会导致过拟合。 4.动量(momentum):用于控制模型参数更新的方向。动量可以加速模型的收敛速度,并且可以帮助模型跳出局部最优解。 5.权重衰减(weight decay):用于控制模型参数的大小。较大的权重衰减可以减少过拟合,但可能会导致欠拟合;较小的权重衰减可以提高模型的拟合能力,但可能会导致过拟合。 根据引用,可以通过绘制学习率和动量的草图来更好地理解它们在模型训练过程的作用。 因此,要设置Halcon深度学习参数,需要根据具体的任务和数据集进行调整。可以通过尝试不同的超参数组合来找到最佳的超参数设置。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值