机器学习
文章平均质量分 93
AomanHao
热爱图像处理,优化彩色世界
展开
-
【阅读笔记】提升example-based SISR七个技巧
论文信息【Seven ways to improve example-based single image super resolution】-Radu Timofte, 2016, CVPR论文链接提升example-based single image SR的七个技巧。前置内容数据集:Train91, Set5, Set14, B100, L20对比方法:Yang, Zeyde, ANR, A+, SRCNNYang:即Sparse Coding(SC),图像特征块由原子字典和原子稀疏矩阵原创 2021-05-26 18:12:08 · 368 阅读 · 0 评论 -
机器学习-线性回归
每个特征变量可以首先映射到⼀一个函数,然后再参与线性计算,模型如下:y=θ0+θ1x1+θ2x2+⋅⋅⋅+θnxny = \theta_0 + \theta_1x_1 + \theta_2x_2 + · · · + \theta_nx_ny=θ0+θ1x1+θ2x2+⋅⋅⋅+θnxn其中$ x_1,x_2,…,x_n表示自变量(特征分量),表示自变量(特征分量),表示自变量(特征...原创 2019-09-28 20:36:38 · 203 阅读 · 0 评论 -
机器学习-梯度消失爆炸
梯度消失本层的神经元的激活等于上一层神经元对应的权值进行加权和运算,最后通过一个非线性函数(激活函数)如ReLu,sigmoid等函数,最后得到的结果就是本层神经元的输出,逐层逐神经元通过该操作向前传播,最终得到输出层的结果。梯度消失的影响:浅层基本不学习,后面几层一直在学习,失去深度的意义。无法收敛。梯度消失的现象呢?因为通常神经网络所用的激活函数是sigmoid函数这个函...原创 2019-09-28 20:39:34 · 231 阅读 · 0 评论