![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
tiantian7996
这个作者很懒,什么都没留下…
展开
-
深度学习之梯度下降
梯度下降θ∗\theta^*θ∗=argminθ\arg min_\thetaargminθL(θ∗\theta^*θ∗)xuexiL:损失函数 θ∗\theta^*θ∗:参数现在假设θ\thetaθ有两个变量,分别为{θ1\theta_1θ1,θ2\theta_2θ2}随机设定θ0\theta^0θ0=(θ10θ20)\begin{pmatrix}\theta^0_1\\\theta^0_2 \end{pmatrix}(θ10θ20)∇\nabla∇L(θ\theta原创 2020-05-13 21:18:15 · 217 阅读 · 0 评论 -
深度学习之error来自哪里
errorerror来自于bias和variance.如果你知道你的error来自于哪里。就可以有针对性的调你的Module.假如x的平均值是μ\muμ,方差是σ2\sigma^2σ2,但是在计算过程中得出平均值的结果不一定就是μ\muμ,如图所示,足够多次进行平均值求解,然后得出的期望是μ\muμ。该图是对error的一次形象描述,最好的情况是左上角的情况,你所做的实验结果在靶心周围,偏离程度不大;可以说,均值是看靶心和你计算的μ\muμ的距离,方差是看所实验数据的分散程度。该图是把100次的原创 2020-05-13 15:49:27 · 295 阅读 · 0 评论