为什么分类对象越多训练时间越长?

这句话也可以表述成为什么在训练时间相同的情况下分类对象越多分类准确率越低,

或者表述成为什么在运算量相同的情况下分类对象越多分类准确率越低。

 

为解释这个现象引入三个假设

假设1.在收敛标准相同的情况下,实现收敛的迭代次数越多表明分类对象之间越相似。

假设2.被分类图片的重叠区域携带了决定分类的决定性信息

假设3.收敛标准与分类准确率成反比

 

完全相同的两个对象不能被分成两类,因此用神经网络分类同一个对象,对应任一个收敛标准迭代次数都应该是无限大。由此反推,在收敛标准相同的情况下迭代次数越大,表明分类对象应该越相似。由此从逻辑上得到假设1.

假设2在文<实验:是否图片的重叠区域携带了决定分类的所有信息?>中的实验数据强烈的支持这一假设。

对于假设3,前面的所有实验都表明同一个网络收敛标准越小分类准确率越大。

 

现在假设这三个假设都是成立的。

一个n+1分类网络的公共重叠区域一定小于一个n分类网络的重叠区域,比如三分类网络mnist012的重叠区域要小于二分类mnist01的重叠区域,同理mnist0123456789这个10分类的网络的重叠区域要小于mnist012的重叠区域。从直观上很容易理解分类对象越多,公共重叠区域应该越小。

假设有一个网络的重叠区域足够小,以至于整个重叠区域的能量等于1个普朗克常量,也就是相对这个网络来说,所有被分类对象都变成一个能量仅仅等于一个普朗克常量的粒子,这个公共重叠区域应该无法携带足够多的信息提供精确分类,分类对象之间变得更加相似,由此迭代次数应该变得非常巨大。由这个极限情况推知公共区域越小导致参与分类的对象越相似并导致迭代次数越大。

 

由假设1和假设2可以得到一个推论

推论1.分类对象越多公共重叠区域越小,重叠区域越小分类对象越相似。

由推论1和假设3.可得出分类对象越多,重叠区越小,在收敛标准相同的前提下需要的迭代次数也越多,也就是在收敛时间相同的前提下或者在运算量相同的前提下只能达到相对较大的收敛标准,由于收敛标准较大导致分类准确率较低。

由此标题得以解释。

 

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

黑榆

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值