深度学习
文章平均质量分 71
HuntZou
这个作者很懒,什么都没留下…
展开
-
大白话反向传播和链式求导
#mermaid-svg-8owjzWvxhoectPXD {font-family:"trebuchet ms",verdana,arial,sans-serif;font-size:16px;fill:#333;}#mermaid-svg-8owjzWvxhoectPXD .error-icon{fill:#552222;}#mermaid-svg-8owjzWvxhoectPXD .error-text{fill:#552222;stroke:#552222;}#mermaid-svg-8owjzWv原创 2022-04-06 12:27:18 · 1013 阅读 · 0 评论 -
Pytorch将多维张量转换为一维
使用 tensor.reshape(-1) 即可其中,若reshape的参数为负数,则表示不指定具体维度的长度,以真实的数据长度补足原创 2022-03-31 11:00:31 · 12167 阅读 · 0 评论 -
分类问题时loss只是收敛到0.693附近的直线
目录问题概述根本原因:交叉熵常见原因之一:Sigmoid出现问题原因及解决方法1 当输入与输出确实不相关时2 当模型初始权重相同且较大,且学习率较小时3 当模型的输入本身就很小,或者模型初始化权重很小时4 特征不明显,导致长时间训练不拟合5 使用sigmoid或tanh这类函数时,或输入特征较大使得收敛更困难这种情况一般是在使用了交叉熵的二分类问题上容易出现,同样的,也可能出现loss收敛到1.0986、1.386等等,其实他们就是log(1/2)、log(1/3)、log(1/4)。。。问题概述根原创 2022-03-26 20:47:47 · 6671 阅读 · 0 评论