神经网络算法

深度学习强调端到端,即输入是数据,输出直接是结果,简化中间的过程,只看结果,不考虑中间过程。
深度学习比的就是损失函数,通过损失函数去告诉模型要干什么。
图像数据是矩阵。
学习历史数据的规律、分布,新的数据分布也许会发生改变,股票等预测不现实。
好的论文:网络结构、损失函数(根据输入数据的特点)
batch_size越大,模型越稳定,如果为1,刚好有一个数据为离群点,那效果就会出现很大的偏差。
batchsize的意义就是多个一起算损失,越大误差越小,些时候有噪音点,batchsize越大,这个点的影响越小。
请添加图片描述
请添加图片描述
请添加图片描述
epoch训练轮数,类比打篮球,最先打得越多技术越好,但是打到一定程度就不再会有什么提升了。
BN:每过一层后,都要做预处理,让数据分布尽量保持不变,有利于学习。
全连接慢效果差。
在这里插入图片描述
在这里插入图片描述
特征是数值,计算机能够利用的信息。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值