- 博客(5)
- 收藏
- 关注
原创 李宏毅机器学习DA8
第一节描述了梯度下降的过程中可能出现的问题。saddle point是什么,并说明了如何逃离saddle point,最后比较saddle point和local minima的区别,或许在更高维度的空间,local minima就是一个saddle point第二节比较了small batch和large batch对于training結果的影響,到底哪一種是更好的testing data,各有優點第三节则是从不同参数采用不同的learning rate出发,对结果进行优化第四节讨论了分类
2022-08-24 00:42:11 278 1
原创 李宏毅机器学习DAY6
这两天学习的是深度学习和反向传播,对于深度学习的发展历史有了一些了解,以及深度学习的步骤,神经网络的结构,不同的神经网络架构定义不同的方程,一个神经网络就是一个function,从输入vector到输出vector并且学习到了转化成矩阵运算的方法和优势,可以使用gpu加快运算的过程
2022-08-21 15:03:46 403
原创 李宏毅机器学习DAY4 误差和梯度下降
这两天学的是误差产生的原因和解决办法还有梯度下降的优化方法,后面还有20分钟的数学推导内容没有放在笔记中。整体来看梯度下降里面包含的概念还是挺多的,Adagrad自适应梯度下降算法,SGD随机梯度下降,在后面的实践中可以多运用看看。...
2022-08-18 10:27:02 337
原创 李宏毅机器学习笔记DAY2
已经是3其他李老师的课了,不得不说做笔记手写真的太爽了,这些符号打起来头疼,铅笔写起来刷刷刷的o(`ω´ )o,五星级学习体验李老师真是老二次元了,以后如果搞这方面研究的话,我要拿jojo当素材!谁会拒绝一只粉色大猫猫呢(败者食尘⚠️............
2022-08-16 23:51:17 229
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人