- 博客(18)
- 收藏
- 关注
原创 台大李宏毅Machine Learning 2017Fall学习笔记 (16)Unsupervised Learning:Neighbor Embedding
台大李宏毅Machine Learning 2017Fall学习笔记 (16)Unsupervised Learning:Neighbor Embedding
2018-01-26 14:26:18 479 1
原创 傅里叶分析之掐死教程(完整版)更新于2014.06.06
傅里叶分析之掐死教程(完整版)更新于2014.06.06在知乎上看到一篇介绍傅里叶变换的好文章,先贴个链接。后面有空再完整的转载过来。 https://zhuanlan.zhihu.com/wille/19763358 一定要看啊!!!
2018-01-22 19:33:19 773
转载 台大李宏毅Machine Learning 2017Fall学习笔记 (14)Unsupervised Learning:Linear Dimension Reduction
台大李宏毅Machine Learning 2017Fall学习笔记 (14)Unsupervised Learning:Linear Dimension Reduction本博客整理自: http://blog.csdn.net/xzy_thu/article/details/70158829 Unsupervised Learning有两种: 1)化繁为简(Clustering & Dim
2018-01-18 17:14:21 680
原创 台大李宏毅Machine Learning 2017Fall学习笔记 (13)Semi-supervised Learning
台大李宏毅Machine Learning 2017Fall学习笔记 (13)Semi-supervised Learning本博客参考整理自: http://blog.csdn.net/xzy_thu/article/details/69808817#t8 半监督学习的训练数据,有一部分是标注数据,有一部分是无标注数据。 Transductive learning(直推学习)和Ind
2018-01-16 13:59:28 592
原创 台大李宏毅Machine Learning 2017Fall学习笔记 (12)Why Deep?
台大李宏毅Machine Learning 2017Fall学习笔记 (12)Why Deep?本博客整理自: http://blog.csdn.net/xzy_thu/article/details/69808817 在比较浅层网络与深层网络时,要让“矮胖”的网络和“高瘦”的网络的参数数目相等,这样比较才公平。 即便是在深层网络参数较少的情况下,深层网络也会比浅层网络表现好。 这是因为
2018-01-15 23:00:30 598
原创 台大李宏毅Machine Learning 2017Fall学习笔记 (11)Convolutional Neural Network
台大李宏毅Machine Learning 2017Fall学习笔记 (11)Convolutional Neural Network本博客主要整理自: http://blog.csdn.net/xzy_thu/article/details/69808817 本节课主要讲述了CNN的原理结构、操作过程和应用。Why CNN for ImageCNN的参数比全连接神经网络少得多,为什么CNN只用
2018-01-14 20:21:16 753
原创 斯坦福大学面向Tensorflow深度学习研究课程(2018)
注:本博客内容摘抄自微博:爱可可-爱生活,链接:https://weibo.com/fly51fly?profile_ftype=1&is_all=1#_rnd1515898914049 【斯坦福大学面向Tensorflow深度学习研究课程(2018)】《CS 20: Tensorflow for Deep Learning Research - Stanford University》by Ch
2018-01-14 11:02:48 1165
原创 台大李宏毅Machine Learning 2017Fall学习笔记 (10)Tips for Deep Learning
台大李宏毅Machine Learning 2017Fall学习笔记 (10)Tips for Deep Learning注:本博客主要参照 http://blog.csdn.net/xzy_thu/article/details/69680951改写。 此小节课讲的是在做深度学习过程中,提升模型效果的方法。 从训练模型到最后应用,流程图如下图所示。 注意:在实际训练深度学习模型的
2018-01-12 10:37:31 861
原创 台大李宏毅Machine Learning 2017Fall学习笔记 (9)Keras
台大李宏毅Machine Learning 2017Fall学习笔记 (9)Keras本节课主要讲述了如何利用Keras搭建深度学习模型。Keras是基于TensorFlow封装的上层API,看上去要好用不少啊~~~ 用Keras搭建深度学习法模型类似搭积木,直接贴PPT了。Step 1: Define a set of function 上图中model=Sequential
2018-01-10 11:41:25 538
原创 台大李宏毅Machine Learning 2017Fall学习笔记 (8)Backpropagation
台大李宏毅Machine Learning 2017Fall学习笔记 (8)Backpropagation当网络结构很复杂时,会有大量的参数。∇L(θ)\nabla L(\theta)是百万维的向量。如何高效地计算百万维的参数,使用反向传播算法来计算。BP并非是一个和GD不同的训练方法,BP就是GD,只是是一种比较有效率的计算方法。 数学知识铺垫:微积分中的链式法则,很简单。 还是以上节
2018-01-09 15:39:31 1186
原创 台大李宏毅Machine Learning 2017Fall学习笔记 (7)Introduction of Deep Learning
台大李宏毅Machine Learning 2017Fall学习笔记 (6)Introduction of Deep Learning最近几年,deep learning发展的越来越快,其应用也越来越广。但深度学习的发展并非是一帆风顺的。 简单了解深度学习的历史后,再看一下做深度学习的步骤。很简单,就像是把大象放进冰箱里一样简单。共分为3步。Step 1:Neural NetworkStep\
2018-01-09 11:18:21 890
转载 判别式模型和生成式模型的区别(discriminative model and generative model)
判别式模型和生成式模型的区别(discriminative model and generative model)本博客转载自: http://blog.csdn.net/amblue/article/details/17023485 在NLP和机器学习中经常会遇到这两种显著不同的模型,在学习阶段(训练阶段)和评估阶段(测试阶段)都有不同的表现 总结一下它们之间的区别,欢迎补充: 1
2018-01-07 16:31:36 645
原创 台大李宏毅Machine Learning 2017Fall学习笔记 (6)Logistic Regression
台大李宏毅Machine Learning 2017Fall学习笔记 (6)Logistic Regression做Logistic Regression回归,需要3步。 Step 1: Function Set 在此问题中选择sigmod(z)sigmod(z)函数,具体见下图。 这里对Logistic Regression和Linear Regressio
2018-01-07 16:21:48 1324
转载 多元高斯函数
多元高斯函数本博客转载自: http://blog.csdn.net/neu_chenguangq/article/details/46581987
2018-01-06 15:51:45 1017
原创 台大李宏毅Machine Learning 2017Fall学习笔记 (5)Classification: Probabilistic Generative Model
台大李宏毅Machine Learning 2017Fall学习笔记(5)Classification: Probabilistic Generative Model本节课以二分类问题为例,详细讲解了模型建立的过程及其背后的数学原理。 分类问题的理想模型如下图所示。定义损失函数,给定一个输入值,模型便能输出类别。 如果是简单的二分类问题(比如下图中通过球的颜色判断属于哪个盒子),根据贝
2018-01-06 15:30:21 539
转载 预处理: 主成分分析和白化
预处理: 主成分分析和白化 本博客转载自:http://blog.csdn.net/itplus/article/details/11451327
2018-01-03 21:41:28 399
原创 台大李宏毅Machine Learning 2017Fall学习笔记 (4)Gradient Descent
台大李宏毅Machine Learning 2017Fall学习笔记 (4)Gradient Descent
2018-01-03 09:52:22 656
原创 台大李宏毅Machine Learning 2017Fall学习笔记 (3)Bias and Variance (v2)
台大李宏毅Machine Learning 2017Fall学习笔记 (3)Bias and Variance (v2) 这节课主要讲解了训练模型的误差来源及相应的解决方案。 模型的误差主要来源于数据的Bias和Variance Bias(偏差):描述的是预测值(估计值)的期望与真实值之间的差距。偏差越大,越偏离真实数据。 Varia
2018-01-02 21:33:13 574
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人