自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

Allenlzcoder的博客

快来关注我啊!!!

  • 博客(18)
  • 收藏
  • 关注

原创 台大李宏毅Machine Learning 2017Fall学习笔记 (16)Unsupervised Learning:Neighbor Embedding

台大李宏毅Machine Learning 2017Fall学习笔记 (16)Unsupervised Learning:Neighbor Embedding

2018-01-26 14:26:18 479 1

原创 傅里叶分析之掐死教程(完整版)更新于2014.06.06

傅里叶分析之掐死教程(完整版)更新于2014.06.06在知乎上看到一篇介绍傅里叶变换的好文章,先贴个链接。后面有空再完整的转载过来。 https://zhuanlan.zhihu.com/wille/19763358 一定要看啊!!!

2018-01-22 19:33:19 773

转载 台大李宏毅Machine Learning 2017Fall学习笔记 (14)Unsupervised Learning:Linear Dimension Reduction

台大李宏毅Machine Learning 2017Fall学习笔记 (14)Unsupervised Learning:Linear Dimension Reduction本博客整理自: http://blog.csdn.net/xzy_thu/article/details/70158829 Unsupervised Learning有两种: 1)化繁为简(Clustering & Dim

2018-01-18 17:14:21 680

原创 台大李宏毅Machine Learning 2017Fall学习笔记 (13)Semi-supervised Learning

台大李宏毅Machine Learning 2017Fall学习笔记 (13)Semi-supervised Learning本博客参考整理自: http://blog.csdn.net/xzy_thu/article/details/69808817#t8 半监督学习的训练数据,有一部分是标注数据,有一部分是无标注数据。 Transductive learning(直推学习)和Ind

2018-01-16 13:59:28 592

原创 台大李宏毅Machine Learning 2017Fall学习笔记 (12)Why Deep?

台大李宏毅Machine Learning 2017Fall学习笔记 (12)Why Deep?本博客整理自: http://blog.csdn.net/xzy_thu/article/details/69808817 在比较浅层网络与深层网络时,要让“矮胖”的网络和“高瘦”的网络的参数数目相等,这样比较才公平。 即便是在深层网络参数较少的情况下,深层网络也会比浅层网络表现好。 这是因为

2018-01-15 23:00:30 598

原创 台大李宏毅Machine Learning 2017Fall学习笔记 (11)Convolutional Neural Network

台大李宏毅Machine Learning 2017Fall学习笔记 (11)Convolutional Neural Network本博客主要整理自: http://blog.csdn.net/xzy_thu/article/details/69808817 本节课主要讲述了CNN的原理结构、操作过程和应用。Why CNN for ImageCNN的参数比全连接神经网络少得多,为什么CNN只用

2018-01-14 20:21:16 753

原创 斯坦福大学面向Tensorflow深度学习研究课程(2018)

注:本博客内容摘抄自微博:爱可可-爱生活,链接:https://weibo.com/fly51fly?profile_ftype=1&is_all=1#_rnd1515898914049 【斯坦福大学面向Tensorflow深度学习研究课程(2018)】《CS 20: Tensorflow for Deep Learning Research - Stanford University》by Ch

2018-01-14 11:02:48 1165

原创 台大李宏毅Machine Learning 2017Fall学习笔记 (10)Tips for Deep Learning

台大李宏毅Machine Learning 2017Fall学习笔记 (10)Tips for Deep Learning注:本博客主要参照 http://blog.csdn.net/xzy_thu/article/details/69680951改写。 此小节课讲的是在做深度学习过程中,提升模型效果的方法。 从训练模型到最后应用,流程图如下图所示。 注意:在实际训练深度学习模型的

2018-01-12 10:37:31 861

原创 台大李宏毅Machine Learning 2017Fall学习笔记 (9)Keras

台大李宏毅Machine Learning 2017Fall学习笔记 (9)Keras本节课主要讲述了如何利用Keras搭建深度学习模型。Keras是基于TensorFlow封装的上层API,看上去要好用不少啊~~~ 用Keras搭建深度学习法模型类似搭积木,直接贴PPT了。Step 1: Define a set of function 上图中model=Sequential

2018-01-10 11:41:25 538

原创 台大李宏毅Machine Learning 2017Fall学习笔记 (8)Backpropagation

台大李宏毅Machine Learning 2017Fall学习笔记 (8)Backpropagation当网络结构很复杂时,会有大量的参数。∇L(θ)\nabla L(\theta)是百万维的向量。如何高效地计算百万维的参数,使用反向传播算法来计算。BP并非是一个和GD不同的训练方法,BP就是GD,只是是一种比较有效率的计算方法。 数学知识铺垫:微积分中的链式法则,很简单。 还是以上节

2018-01-09 15:39:31 1186

原创 台大李宏毅Machine Learning 2017Fall学习笔记 (7)Introduction of Deep Learning

台大李宏毅Machine Learning 2017Fall学习笔记 (6)Introduction of Deep Learning最近几年,deep learning发展的越来越快,其应用也越来越广。但深度学习的发展并非是一帆风顺的。 简单了解深度学习的历史后,再看一下做深度学习的步骤。很简单,就像是把大象放进冰箱里一样简单。共分为3步。Step 1:Neural NetworkStep\

2018-01-09 11:18:21 890

转载 判别式模型和生成式模型的区别(discriminative model and generative model)

判别式模型和生成式模型的区别(discriminative model and generative model)本博客转载自: http://blog.csdn.net/amblue/article/details/17023485 在NLP和机器学习中经常会遇到这两种显著不同的模型,在学习阶段(训练阶段)和评估阶段(测试阶段)都有不同的表现 总结一下它们之间的区别,欢迎补充: 1

2018-01-07 16:31:36 645

原创 台大李宏毅Machine Learning 2017Fall学习笔记 (6)Logistic Regression

台大李宏毅Machine Learning 2017Fall学习笔记 (6)Logistic Regression做Logistic Regression回归,需要3步。 Step 1: Function Set 在此问题中选择sigmod(z)sigmod(z)函数,具体见下图。 这里对Logistic Regression和Linear Regressio

2018-01-07 16:21:48 1324

转载 多元高斯函数

多元高斯函数本博客转载自: http://blog.csdn.net/neu_chenguangq/article/details/46581987

2018-01-06 15:51:45 1017

原创 台大李宏毅Machine Learning 2017Fall学习笔记 (5)Classification: Probabilistic Generative Model

台大李宏毅Machine Learning 2017Fall学习笔记(5)Classification: Probabilistic Generative Model本节课以二分类问题为例,详细讲解了模型建立的过程及其背后的数学原理。 分类问题的理想模型如下图所示。定义损失函数,给定一个输入值,模型便能输出类别。 如果是简单的二分类问题(比如下图中通过球的颜色判断属于哪个盒子),根据贝

2018-01-06 15:30:21 539

转载 预处理: 主成分分析和白化

预处理: 主成分分析和白化      本博客转载自:http://blog.csdn.net/itplus/article/details/11451327

2018-01-03 21:41:28 399

原创 台大李宏毅Machine Learning 2017Fall学习笔记 (4)Gradient Descent

台大李宏毅Machine Learning 2017Fall学习笔记 (4)Gradient Descent

2018-01-03 09:52:22 656

原创 台大李宏毅Machine Learning 2017Fall学习笔记 (3)Bias and Variance (v2)

台大李宏毅Machine Learning 2017Fall学习笔记 (3)Bias and Variance (v2)       这节课主要讲解了训练模型的误差来源及相应的解决方案。       模型的误差主要来源于数据的Bias和Variance       Bias(偏差):描述的是预测值(估计值)的期望与真实值之间的差距。偏差越大,越偏离真实数据。       Varia

2018-01-02 21:33:13 574

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除