![](https://img-blog.csdnimg.cn/20201014180756757.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
机器学习点滴
赏你个麻辣烫儿
这个作者很懒,什么都没留下…
展开
-
EfficientNet训练天坑——eval
会使得 Batch Normalization 使用全局统计信息而不是 batch 的统计信息,而 Dropout 层会变得无效。这是因为在测试时我们不再需要通过 batch 的统计信息来进行归一化或者随机失活。在训练过程中,Batch Normalization 和 Dropout 层通常会采用不同的行为。主要是为了确保在测试阶段模型的行为与训练时一致,并减少内存占用。在测试阶段,为了得到模型的最终输出而不影响其行为,通常会调用。各种修改,各种debug,各种死马当活马医;在训练阶段,你通常会使用。原创 2023-12-18 23:47:58 · 359 阅读 · 1 评论 -
一句话——机器学习概念理解1
2.朴素贝叶斯分类——使用朴素贝叶斯公式计算样本为某个标签的概率,即使用先验信息求解后验信息。5.决策树——某一特征下标签的信息熵最小,说明这个特征为最佳判别依据。3.逻辑回归——线性回归(极大似然之类)+Sigmoid函数。1.支持向量机(线性)——寻找与样本几何间隔最大的超平面。4.K近邻——根据样本分布,少数服从多数。6.随机森林——多个决策树共同投票决策。原创 2024-01-09 11:39:42 · 579 阅读 · 0 评论 -
nll_loss_forward_reduce_cuda_kernel_2d: Assertion `t >= 0 && t < n__classes` failed.
参考如上,第二种方法解决的,我在数据量化时,将label设为了1-8,自此报各种奇怪错误。总结:label需要从0开始,原因不知。原创 2024-01-04 23:11:34 · 739 阅读 · 2 评论 -
储备池计算的理解
储备池计算,又称作回声状态网络,用于处理时间序列数据。循环神经网络中的隐藏层固定权重后就是储备池,包含了历史输入的信息、非线性处理和线性处理能力,储备池将输入映射到高维中,无须训练储备池,只需训练储备池后的输出表达即可得到想要的结果,一般使用简单的最小二乘法进行训练。相比RNN优点是训练简单。原创 2023-11-22 17:44:58 · 254 阅读 · 0 评论 -
从RNN看神经网络原理
典型神经网络包括输入层、隐藏层和输出层,输入层到隐藏层的过程是机器学习输入特征的过程,也就是机器将输入转换成自己可以理解的形式,隐藏层到输出层的过程是机器理解的信息转换成人可以理解的信息的过程。例如人:what time is it?——>机器语言:“在问时间”——>人:这是在问时间。循环神经网络是将机器对上下文的理解融合到了一起,再转换为人能理解的信息。原创 2023-11-22 17:15:06 · 31 阅读 · 0 评论