台大李宏毅Machine Learning 2017Fall
Allenlzcoder
拒绝拖延症!!!
展开
-
台大李宏毅Machine Learning 2017Fall学习笔记 (2)Linear Regression and Overfitting
台大李宏毅Machine Learning 2017Fall学习笔记 (2)Linear Regression and Overfitting 简单回归问题应用举例分析 第1步:选取模型 第2步:评价模型,建立损失函数L(f) 第3步:选择最优函数,在此过程中会利用到梯度下降和正则化等方法,也介绍了过拟合的问题。原创 2017-12-30 22:17:56 · 774 阅读 · 0 评论 -
台大李宏毅Machine Learning 2017Fall学习笔记 (9)Keras
台大李宏毅Machine Learning 2017Fall学习笔记 (9)Keras本节课主要讲述了如何利用Keras搭建深度学习模型。Keras是基于TensorFlow封装的上层API,看上去要好用不少啊~~~ 用Keras搭建深度学习法模型类似搭积木,直接贴PPT了。Step 1: Define a set of function 上图中model=Sequential原创 2018-01-10 11:41:25 · 537 阅读 · 0 评论 -
台大李宏毅Machine Learning 2017Fall学习笔记 (14)Unsupervised Learning:Linear Dimension Reduction
台大李宏毅Machine Learning 2017Fall学习笔记 (14)Unsupervised Learning:Linear Dimension Reduction本博客整理自: http://blog.csdn.net/xzy_thu/article/details/70158829 Unsupervised Learning有两种: 1)化繁为简(Clustering & Dim转载 2018-01-18 17:14:21 · 680 阅读 · 0 评论 -
台大李宏毅Machine Learning 2017Fall学习笔记 (16)Unsupervised Learning:Neighbor Embedding
台大李宏毅Machine Learning 2017Fall学习笔记 (16)Unsupervised Learning:Neighbor Embedding原创 2018-01-26 14:26:18 · 478 阅读 · 1 评论 -
台大李宏毅Machine Learning 2017Fall学习笔记 (8)Backpropagation
台大李宏毅Machine Learning 2017Fall学习笔记 (8)Backpropagation当网络结构很复杂时,会有大量的参数。∇L(θ)\nabla L(\theta)是百万维的向量。如何高效地计算百万维的参数,使用反向传播算法来计算。BP并非是一个和GD不同的训练方法,BP就是GD,只是是一种比较有效率的计算方法。 数学知识铺垫:微积分中的链式法则,很简单。 还是以上节原创 2018-01-09 15:39:31 · 1185 阅读 · 0 评论 -
台大李宏毅Machine Learning 2017Fall学习笔记 (7)Introduction of Deep Learning
台大李宏毅Machine Learning 2017Fall学习笔记 (6)Introduction of Deep Learning最近几年,deep learning发展的越来越快,其应用也越来越广。但深度学习的发展并非是一帆风顺的。 简单了解深度学习的历史后,再看一下做深度学习的步骤。很简单,就像是把大象放进冰箱里一样简单。共分为3步。Step 1:Neural NetworkStep\原创 2018-01-09 11:18:21 · 890 阅读 · 0 评论 -
台大李宏毅Machine Learning 2017Fall学习笔记 (13)Semi-supervised Learning
台大李宏毅Machine Learning 2017Fall学习笔记 (13)Semi-supervised Learning本博客参考整理自: http://blog.csdn.net/xzy_thu/article/details/69808817#t8 半监督学习的训练数据,有一部分是标注数据,有一部分是无标注数据。 Transductive learning(直推学习)和Ind原创 2018-01-16 13:59:28 · 592 阅读 · 0 评论 -
台大李宏毅Machine Learning 2017Fall学习笔记 (6)Logistic Regression
台大李宏毅Machine Learning 2017Fall学习笔记 (6)Logistic Regression做Logistic Regression回归,需要3步。 Step 1: Function Set 在此问题中选择sigmod(z)sigmod(z)函数,具体见下图。 这里对Logistic Regression和Linear Regressio原创 2018-01-07 16:21:48 · 1324 阅读 · 0 评论 -
台大李宏毅Machine Learning 2017Fall学习笔记 (12)Why Deep?
台大李宏毅Machine Learning 2017Fall学习笔记 (12)Why Deep?本博客整理自: http://blog.csdn.net/xzy_thu/article/details/69808817 在比较浅层网络与深层网络时,要让“矮胖”的网络和“高瘦”的网络的参数数目相等,这样比较才公平。 即便是在深层网络参数较少的情况下,深层网络也会比浅层网络表现好。 这是因为原创 2018-01-15 23:00:30 · 598 阅读 · 0 评论 -
台大李宏毅Machine Learning 2017Fall学习笔记 (5)Classification: Probabilistic Generative Model
台大李宏毅Machine Learning 2017Fall学习笔记(5)Classification: Probabilistic Generative Model本节课以二分类问题为例,详细讲解了模型建立的过程及其背后的数学原理。 分类问题的理想模型如下图所示。定义损失函数,给定一个输入值,模型便能输出类别。 如果是简单的二分类问题(比如下图中通过球的颜色判断属于哪个盒子),根据贝原创 2018-01-06 15:30:21 · 539 阅读 · 0 评论 -
台大李宏毅Machine Learning 2017Fall学习笔记 (11)Convolutional Neural Network
台大李宏毅Machine Learning 2017Fall学习笔记 (11)Convolutional Neural Network本博客主要整理自: http://blog.csdn.net/xzy_thu/article/details/69808817 本节课主要讲述了CNN的原理结构、操作过程和应用。Why CNN for ImageCNN的参数比全连接神经网络少得多,为什么CNN只用原创 2018-01-14 20:21:16 · 753 阅读 · 0 评论 -
台大李宏毅Machine Learning 2017Fall学习笔记 (1)Introduction of machine Learning
台大李宏毅Machine Learning 2017Fall学习笔记 (1)Introduction of machine Learning 台大李宏毅讲的这门课应该不错,课程链接: http://blog.csdn.net/Allenlzcoder/article/details/78644733 http://blog.csdn.net/Alle原创 2017-12-29 16:28:49 · 1715 阅读 · 0 评论 -
台大李宏毅Machine Learning 2017Fall学习笔记 (10)Tips for Deep Learning
台大李宏毅Machine Learning 2017Fall学习笔记 (10)Tips for Deep Learning注:本博客主要参照 http://blog.csdn.net/xzy_thu/article/details/69680951改写。 此小节课讲的是在做深度学习过程中,提升模型效果的方法。 从训练模型到最后应用,流程图如下图所示。 注意:在实际训练深度学习模型的原创 2018-01-12 10:37:31 · 861 阅读 · 0 评论 -
台大李宏毅Machine Learning 2017Fall学习笔记 (4)Gradient Descent
台大李宏毅Machine Learning 2017Fall学习笔记 (4)Gradient Descent原创 2018-01-03 09:52:22 · 656 阅读 · 0 评论 -
台大李宏毅Machine Learning 2017Fall学习笔记 (3)Bias and Variance (v2)
台大李宏毅Machine Learning 2017Fall学习笔记 (3)Bias and Variance (v2) 这节课主要讲解了训练模型的误差来源及相应的解决方案。 模型的误差主要来源于数据的Bias和Variance Bias(偏差):描述的是预测值(估计值)的期望与真实值之间的差距。偏差越大,越偏离真实数据。 Varia原创 2018-01-02 21:33:13 · 574 阅读 · 0 评论