![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 94
uncle_q_
这个作者很懒,什么都没留下…
展开
-
深度学习21_李宏毅_08_CNN
CNN我们开始探讨 Network 的架构设计,第一个Network 架构的变形是 Convolutional 的 Neural Network,它的缩写是 CNN,它是专门被用在影像上的,我希望透过 CNN 这个例子,来让大家知道Network 的架构,它的设计有什麼样的想法,那為什麼设计 Network 的架构,可以让我们的 Network 结果做得更好。Image Classification接下来要讲的例子是跟影像有关的,我们要做影像的分类,也就是给机器一张图片,它要去决定说这张图片裡面有什麼原创 2021-04-01 22:04:47 · 354 阅读 · 0 评论 -
深度学习21_李宏毅_07_Classification
ClassificationTo learn more接下来讲有关分类怎麼做这件事情,这边讲的是一个短的版本,因為时间有限的关係,如果你想要看长的版本的话,可以看一下过去上课的录影过去可能是花两个小时,到三个小时的时间才讲完,分类这件事情,我们这边用一个最快的方法,直接跟你讲分类是怎麼做的Classification as Regression?分类是怎麼做的呢 我们已经讲了,Regression就是输入一个向量,然后输出一个数值,我们希望输出的数值跟某一个label,也就是我们要学习的目标,越原创 2021-04-01 22:03:40 · 274 阅读 · 0 评论 -
深度学习21_李宏毅_05_Batch and Momentum
Batch and MomentumReview: Optimization with Batch 上次我们有讲说,我们实际上在算微分的时候,并不是真的对所有 Data 算出来的 L 作微分,你是把所有的 Data 分成一个一个的 Batch,有的人是叫Mini Batch ,那我这边叫做 Batch,其实指的是一样的东西,助教投影片裡面,是写 Mini Batch 每一个 Batch 的大小呢,就是大 B 一笔的资料,我们每次在 Update 参数的时候,我们是拿大 B 一笔资料出来,算个 L原创 2021-04-01 21:58:38 · 258 阅读 · 0 评论 -
深度学习21_李宏毅_06_Adaptive Learning Rate
Tips for training: Adaptive Learning Ratecritical point其实不一定是,你在训练一个Network的时候,会遇到的最大的障碍,今天要告诉大家的是一个叫做Adaptive Learning Rate的技术,我们要给每一个参数不同的learning rateTraining stuck ≠ Small GradientPeople believe training stuck because the parameters are around a cri原创 2021-04-01 21:55:24 · 301 阅读 · 0 评论 -
深度学习21_李宏毅_04_Local Minimum And Saddle Point
When gradient is smallCritical PointTraining Fails because 现在我们要讲的是Optimization的部分,所以我们要讲的东西基本上跟Overfitting没有什麼太大的关联,我们只讨论Optimization的时候,怎麼把gradient descent做得更好,那為什麼Optimization会失败呢? 你常常在做Optimization的时候,你会发现,随著你的参数不断的update,你的training的loss不会再下降,但是原创 2021-04-01 21:52:07 · 856 阅读 · 0 评论