自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 周志华 西瓜书 第四章 支持向量机

支持向量机

2022-12-26 23:30:08 123

原创 李宏毅 5 卷积神经网络 Convolutional Neural Network

WHY CNN?If use DNN fully connect network, when there are lots of features especailly in image processing, over thousands or millions dimensions in a vetor, it will become a very complicated issue.We can filter some dimensions by leveraging prior knowledg

2022-05-29 01:08:35 124

原创 李宏毅 4 神经网络训练不起来怎么办

https://speech.ee.ntu.edu.tw/~hylee/ml/2021-spring.php1. local minima and saddle point 局部最优和鞍点https://speech.ee.ntu.edu.tw/~hylee/ml/ml2021-course-data/small-gradient-v7.pdflocal minima: 微分为零saddle point: critical point 微分为零根据泰勒展开公式,一次求导为0后可以看二次求导,判断

2022-05-25 22:49:53 396

原创 李宏毅 3 深度学习简介和反向传播

Deep learning 三个步骤DL 的步骤和ML 一样,DL的第一个步骤中选取的模型是神经网路Neural Network1. 神经网络Neural Network神经网络中每一个连接(按照某种结构)的函数(例如logistics function Sigmoid)都有自己的权重和偏差,这些权重和偏差就是参数。连接的方式由自己设计的。完全连接前馈神经网络 Fully Connect Feedforward Network这种方式,每一层的每一个函数之间都有连接。随着层数的变多,运算量会变

2022-05-22 23:06:31 214

原创 李宏毅 2 - 误差&梯度下降

Errorerror 来自于两部分, bias and variance.Bias 是estimator的多次结果均值和实际真实值之间的距离。variance是多次实验的稳定性。m1, m2, … m6 是多组样本的均值。 这边为无偏估计。简单的模型受到不同样本数据的影响比较小,所以当做多次实验时,结果会比较集中,而复杂模型的结果就很分散。不容易受到异常值的影响。Variance低。但从Bias的角度来看,复杂的模型会包括更大的function space,更大的结果模型,更容易将真实值包括

2022-05-18 22:13:42 80

原创 李宏毅 1 - 回归

Loss function损失函数是函数的函数,输入为一个函数,输出是衡量这个函数的好坏。输入函数由w, b 两个参数表示,所以损失函数也可以表示为L(w, b)。f* = arg min L(f) 表达的意思为,找到一个函数,使得loss function最小,f即为这样的函数。 由于这个函数的表达由w, b 两个参数表示, 所以也可以写成后面的表达形式 w, b* = arg min L(w, b)Gradient Descent梯度下降中,对损失函数中参数的偏微分,即为梯度。微分越大,参

2022-05-17 21:41:54 90

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除