机器学习
本专栏用来讲解和梳理吴恩达 Andrew Ng老师机器学习课程和deeplearning.ai专题中的神经网络和深度学习课程中的知识点,和大家一起学习与讨论。
STILLxjy
不要让任何人打乱你生活的节奏
展开
-
[Object Detection] From R-CNN/Fast R-CNN/Faster R-CNN to YOLO(You Only Look Once)
原创 2020-04-09 15:07:50 · 170 阅读 · 0 评论 -
(吴恩达机器学习)神经网络入门
1:为什么神经网络可以实现复杂的非线性假设函数的计算? 对于一个较为复杂的数学式子的求解过程,我们是分步进行求解的。 例如要求解a*(b+c)的值,我们是先进行b+c的计算,然后在将其结果与a相乘。对于这个式子神经网路的求解过程如下图所示: 第一层是输入层,最后一层是输出层,中间为隐藏层。隐藏层实际上就是一个复杂式子的中间计算过程,除了输入层外,其他的每一个节点表示的就是一个计算过程,计...原创 2018-07-02 14:30:16 · 4840 阅读 · 0 评论 -
(吴恩达机器学习)Logistic 回归
逻辑回归提出的原因:对于分类问题,为什么不能用我们之前学习的线性回归算法来解决呢?有以下两点: 1:不能很好地说明实际情况的真正意义 2:函数值可能大于1或者小于0(对于二类分类0,1)假设函数:为了使函数值在0~1之间,假设函数h(x)从h(x) = θ’x换为 h(x) = g(θ’x) 其中g(z)=1/(1+e^-z)h(x)的含义为:对于给定的输入x,y=1的概率为...原创 2018-05-27 13:03:00 · 1594 阅读 · 1 评论 -
(吴恩达机器学习)多变量线性回归
前面的博客我们已经谈过梯度下降算法的核心思想,并在单一变量的情况下做了说明。理解了单变量线性回归那么多变量线性回归就很简单了,思想和操作都是一样的,只不过更一般化了而已。这里我们主要说明一些多变量梯度下降算法的使用技巧和正规方程的使用。1特征缩放:对于多变量的情况,每个变量的含义都不相同,变量的取值范围和量度也都不太一样,所以我们不能仅仅将变量的原始值带入进行研究。例如:对于房价问题,...原创 2018-05-26 11:47:29 · 581 阅读 · 0 评论 -
(吴恩达机器学习)初识梯度下降算法
代价函数: 首先,我们来聊聊代价函数。如上图,上一篇博客已经讲解过代价函数(cost function)是用来描述参数θ(即假设函数)的准确性。我们通过最小化代价函数,来实现对参数θ的优化,代价函数值越小表示参数θ越优。那么代价函数又是如何进行最小化的呢?代价函数是通过梯度下降算法来进行最小化的。 梯度下降算法: 如图所示,梯度下降算法的功能是,对于某一代价函数,我们想通过此算法...原创 2018-05-15 20:02:49 · 924 阅读 · 0 评论 -
(吴恩达机器学习)初识机器学习
机器学习的定义:计算机程序从经验E中学习,解决某一任务T,进行某一性能度量P,通过P,测定在T上的表现因经验E而提高。例如机器下棋和邮件分类。 (1)对于下棋而言, E:通过学习棋谱和模拟下棋,提高经验 T:任务为下赢此棋局 P:下赢棋局的概率(2)对于邮件分类而言, E:用户标记某些邮件为垃圾邮件 T:任务为正确分类垃圾邮件和合格邮件 P:邮件分类的正确率机器学习主...原创 2018-05-14 22:57:00 · 379 阅读 · 0 评论