机器学习
飞速移动的代码菌
这个作者很懒,什么都没留下…
展开
-
计算之魂(吴军)1.4笔记,Datawhale组队学习Task03
1、归并排序有效,是因为利用了X原创 2022-09-02 12:58:29 · 319 阅读 · 1 评论 -
计算之魂(吴军)1.3笔记,Datawhale组队学习Task02
1、同样的问题用分治、动态规划划分为小问题,让结果尽量靠近线性复杂度会从5级工程师变成2.5级工程师;2、思考题1.3 Q1。3、思考题1.3 Q2。4、思考题1.3 Q3。原创 2022-08-26 13:07:12 · 252 阅读 · 0 评论 -
计算之魂(吴军)1.1、1.2笔记,Datawhale组队学习Task01
大数和数量级的概念、大数和数量级的概念原创 2022-08-17 21:18:28 · 174 阅读 · 0 评论 -
深度学习(李宏毅)p13笔记,Datawhale组队学习Task04
心得分享:1、前馈神经网络相当于是一层层往前迭代计算的过程;2、神经网络分为输入层(输入层没有计算,但在此处也当作一层)、隐藏层、输出层,然后现在一般把带神经网络的模型都统称为深度学习;3、AlexNet -> GoogleNet -> ResNet 等等,隐藏层越来越多;4、机器学习的过程就是定义函数集、计算最好的函数、得到函数;...原创 2021-08-23 09:09:39 · 156 阅读 · 0 评论 -
深度学习(李宏毅)p5-p8笔记,Datawhale组队学习Task03
心得分享:1、如果连训练集都不能很好拟合,就是欠拟合(Underfitting),bias大。如果训练集可以拟合好,但测试集拟合不好,就是过拟合(Overfitting),variance大。如果variance太大,可以通过扩大数据或者正则化(Regularization);2、Loss的等高线的法线方向(Gradient);...原创 2021-08-21 01:19:06 · 148 阅读 · 0 评论 -
深度学习(李宏毅)p3-p4笔记,Datawhale组队学习Task02
心得分享:1、可以通过引入正则项(权重(w, weights)也加入到loss的计算中),来降低模型复杂度。其中偏置(b, bias)其实不用放入正则中,因为我们只想要更平滑的,b不会影响是否平滑;2、通过梯度下降(GD, Gradient Descent)来调整参数,降低损失(loss);3、多个参数就求对应的偏导;4、目标值真实y hat, 平均值y bar;5、If类的也可以通过线性模型来表示,比如通过δ(Δ, 丢他, 阶跃, 德尔塔, delta)实现类似的效果,是就是6,不是就是0;7原创 2021-08-18 23:42:57 · 187 阅读 · 0 评论 -
深度学习(李宏毅)p1-p2笔记,Datawhale组队学习Task01
心得分享:1、model的英文叫妈豆;2、如果有标注数据就优先考虑做监督学习(Supervised Learning),而不是强化学习(Reinforcement Learning)。因为强化学习是在数据比较少时被发明的,同时其实也和人类的学习方式较像;3、如果有一堆已分类的图像和一堆未分类的图像,其实未分类的数据也对最后的模型优化有帮助,类似半监督学习(Semi-supervised Learning)的概念;4、如果完全没有标注,也可以考虑使用非监督学习(Unsupervised Learnin原创 2021-08-16 22:24:05 · 181 阅读 · 0 评论 -
机器学习第6章笔记,Datawhale组队学习Task05
原创 2021-07-29 01:28:14 · 343 阅读 · 0 评论 -
机器学习第5章笔记,Datawhale组队学习Task04
原创 2021-07-25 23:55:24 · 346 阅读 · 1 评论 -
机器学习第4章笔记,Datawhale组队学习Task03
原创 2021-07-21 23:22:57 · 309 阅读 · 1 评论 -
机器学习第3章笔记,Datawhale组队学习Task02
原创 2021-07-19 23:40:42 · 142 阅读 · 2 评论 -
机器学习第1章、第2章笔记,Datawhale组队学习Task01
原创 2021-07-13 23:48:46 · 103 阅读 · 0 评论