![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
DataWhale打卡学习
文章平均质量分 93
CharlesLC的博客
求关注,求关注,求关注,haha
展开
-
李宏毅机器学习组队学习打卡活动day05---网络设计的技巧
写在前面报名了一个组队学习,这次学习网络设计的技巧,对应的是李宏毅老师深度学习视频的P5-p9。参考视频:https://www.bilibili.com/video/av59538266参考笔记:https://github.com/datawhalechina/leeml-notes局部最小值和鞍点在梯度下降的时候,优化有些时候会失败,即出现了梯度为零的点,但是梯度为零的点,不只有对应local minima(局部最小值),也有可能对应鞍点(saddle point)那么怎么判断是sa原创 2021-12-06 13:52:28 · 433 阅读 · 0 评论 -
李宏毅机器学习组队学习打卡活动day06---卷积神经网络
写在前面报了一个组队打卡活动,现在已经到了任务6,今天是学习卷积神经网络,之前也是听过,但没有好好学习,正好趁这个机会,好好学习下。参考视频:https://www.bilibili.com/video/av59538266参考笔记: https://github.com/datawhalechina/leeml-notes为什么用CNN?CNN一般都用在影像处理上,当然也可以用一般的neural network做影像处理,不一定要使用CNN。但是这样处理的话,会使得hidden layer原创 2021-11-28 22:22:42 · 364 阅读 · 0 评论 -
李宏毅机器学习组队学习打卡活动day04---深度学习介绍和反向传播机制
写在前面报了一个组队学习的活动,今天的任务是深度学习,深度学习之前没有怎么接触,这次可以好好学习一下。参考视频:https://www.bilibili.com/video/av59538266参考笔记:https://github.com/datawhalechina/leeml-notes深度学习介绍深度学习的三个步骤deep learning 一般有三个部分:step1:神经网络(Neural network)step2: 模型评估(Goodness of function)s原创 2021-11-22 10:21:59 · 4638 阅读 · 0 评论 -
李宏毅机器学习组队学习打卡活动day03---误差和梯度下降
写在前面这次是李宏毅机器学习组队学习的第三次打卡任务,学习误差和梯度下降的内容,之前也是了解过一些,但是理解不渗透,这次好好总结一下。参考视频:https://www.bilibili.com/video/av59538266参考笔记:https://github.com/datawhalechina/leeml-notes误差的来源从上一节的回归的例子可以看出来,Average Error 随着模型复杂程度呈指数型增加,其来源主要是bias和variance。bias 描述的是根据样本拟原创 2021-11-19 22:05:52 · 1165 阅读 · 0 评论 -
李宏毅机器学习组队学习打卡活动day02---回归
写在前面报了一个组队学习的活动,今天的任务是机器学习中的回归,之前也学过一点,但是复习一遍当然更好参考视频:https://www.bilibili.com/video/av59538266参考笔记:https://github.com/datawhalechina/leeml-notes回归定义什么是回归(regression)?回归(regression)就是找到一个函数(使得误差最小的),然后输入数值x,可以得到一个数值Scalar。举例:股市预测(Stock market f原创 2021-11-17 21:49:17 · 3775 阅读 · 0 评论 -
李宏毅机器学习组队学习打卡活动day01---机器学习介绍
写在前面报了一个Datawhale 组队学习活动,我参加的是第31期,打算好好学习以李宏毅老师的机器学习视频,虽然之前也看过一些,但是研究不深,这次想趁着这次活动系统学一下。参考视频:https://www.bilibili.com/video/av59538266参考文档笔记:https://github.com/datawhalechina/leeml-notes机器学习介绍人工智慧:希望机器可以跟人一样的聪明机器学习跟人工智慧之间什么关系?人工智慧是我们想要达成的目标,而机器学习是想原创 2021-11-15 15:07:29 · 795 阅读 · 0 评论