自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(7)
  • 收藏
  • 关注

原创 卷积神经网络基础

一、卷积 卷积神经网络(Convolutional Neural Networks)是一种在空间上共享参数的神经网络。使用数层卷积,而不是数层的矩阵相乘。 在不改变权重的情况下,把这个上方具有k个输出的小神经网络对应的小块滑遍整个图像,可以得到一个宽度、高度不同,而且深度也不同的新图像。 如图中紫色方框所示,左边是有效填充,右边是相同填充。在相同填充中,超出边界的部分使用补充0的办法,使得输入...

2019-09-25 11:59:28 114

原创 Normal Equation & Non-invertibility

之前我们讲过通过梯度下降算法来求θ的极值,现在我们介绍另一种解析算法——正规方程法。

2019-02-18 13:54:14 254

原创 Gradient Descent

之前我们介绍过梯度下降算法,以下我们进行算法的优化,由于特征值数字大小范围不一,可能会造成算法逼近的时候出现奇怪的轨迹,如图x~1 为0~ 2000,x~2 为1~ 5,就会造成代价函数图中的椭圆又扁又长。 因此我们用一些小技巧优化特征值使-1<x<1或者-0.5<x<0.5 便是用此公式计算新的值代替,其中μi为xi在样本中的平均值,si为xi的范围(即最大值减去最小...

2019-02-15 19:35:39 374

原创 Multiple Features & Gradient Descent

如题,即为多元的线性回归,之前我们讨论的只有一个特征量x,而现在我们将有多个特征量x1,x2,x3,x4…… 如图 表示第i组样本数据的第j个特征量。 而我们用新的公式来做线性回归: 也可以写成如下形式(约定x0=1) 对于梯度下降算法,多元线性回归可类比于一元线性回归,适用类似的公式: 注意事项也是一样,所有θ同步更新,重复迭代直到收敛。 ...

2019-02-14 16:28:42 108

原创 Parameter Learning

Gradient Descent 梯度下降算法 在之前,我们了解过关于代价函数J的图形,现介绍一种寻求J极值的办法 先在图中任意取一点,然后反复迭代以下公式,直到达到极值。可以类比于下山,站在山的某一处,你每下一步山都寻找你所在位置下山最快的方向,或者说是坡度最大的方向,直到山谷。 式子中j=0或1,α表示学习速率,可以理解成每次下山步子的大小,它控制我们以多大的幅度更新参数θj。需要注意的是...

2019-01-31 13:24:44 212

原创 Model and cost function

监督学习中我们用某一模型来表示实际问题,数据集中我们有输入x,输出y,m为样本数量。如下图所示:通过样本及机器学习确定模型h,随后解决问题时输入x通过h输出对应的y。 对于回归问题中,我们可以先了解最简单的线性回归模型,即 hθ(x)=θ0+θ1x ,其中hθ(x)即输出。其中确定常数θ0和θ1是核心过程。我们可以通过以下方法确定,通过代价函数又称平方误差函数,确定常数使得J函数达到最小值,即为...

2019-01-29 13:19:16 77

原创 Introduction

What is Machine Learning? Tom Mitchell: “A computer program is said to learn from experience E with respect to some class of tasks T and performance measure P, if its performance at tasks in T, as mea...

2019-01-24 15:51:34 77

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除