深度学习强调端到端,即输入是数据,输出直接是结果,简化中间的过程,只看结果,不考虑中间过程。
深度学习比的就是损失函数,通过损失函数去告诉模型要干什么。
图像数据是矩阵。
学习历史数据的规律、分布,新的数据分布也许会发生改变,股票等预测不现实。
好的论文:网络结构、损失函数(根据输入数据的特点)
batch_size越大,模型越稳定,如果为1,刚好有一个数据为离群点,那效果就会出现很大的偏差。
batchsize的意义就是多个一起算损失,越大误差越小,些时候有噪音点,batchsize越大,这个点的影响越小。
epoch训练轮数,类比打篮球,最先打得越多技术越好,但是打到一定程度就不再会有什么提升了。
BN:每过一层后,都要做预处理,让数据分布尽量保持不变,有利于学习。
全连接慢效果差。
特征是数值,计算机能够利用的信息。
神经网络算法
于 2023-07-13 11:13:14 首次发布