机器学习
文章平均质量分 92
机器学习知识搬运工
杏梓
精进的行业小白
展开
-
第五周 神经网络、反向传播算法和随机初始化
目录第五周课程内容回顾1.神经网络的损失函数1.1公式推导2.反向传播Backpropagation2.1反向传播的意义?2.2反向传播示例2.2.1误差公式解析2.2.2误差公式推导2.3反向传播算法2.3.1偏导公式2.3.2算法公式2.3.3进一步理解3.梯度检验4.随机初始化5.总结概述1.神经网络的损失函数 神经网络模型中损失函数/代价函数和之前的逻辑回归模型中的损失函数有什么区别?先回顾下正则化的逻辑回归模型: ...转载 2021-01-26 22:51:25 · 609 阅读 · 0 评论 -
第四周 神经元、神经网络和前向传播算法
第四周课程回顾1. 神经元1.1 神经元1.2 神经元间的沟通2. 神经网络2.1 Sigmod神经元2.2 三层神经网络和前向传播算法2.3 神经网络的优势3.样本和直观理解4.多类分类1. 神经元1.1 神经元为了构建神经网络模型,我们需要首先思考大脑中的神经网络是怎样的?每一个神经元都可以被认为是一个处理单元/神经核(processing unit/Nucleus),它含有许多输入/树突(input/Dendrite),并且有一个输出/轴突(output转载 2020-08-27 13:13:01 · 570 阅读 · 0 评论 -
第三周 逻辑回归、过拟合、正则化
1.分类问题(Regression)在分类问题中,你要预测的变量 是离散的值,我们将学习一种叫做逻辑回归 (Logisticbr/>Regression) 的算法,这是目前最流行使用最广泛的一种学习算法。顺便说一下,逻辑回归算法是分类算法,我们将它作为分类算法使用。有时候可能因为这个算法的名字中出现了“回归”使你感到困惑,但逻辑回归算法实际上是一种分类算法,它适用于标签 取值离散的情况,如:1 0 0 1。为什么不用线性回归来解决分类问题 ?简单来说,因为分类问题的y取值为固定的几个...转载 2020-08-18 20:38:37 · 1163 阅读 · 0 评论 -
第二周 多变量线性回归和特征缩放、学习率
第二周课程回顾第二周1.多变量线性回归2.多维特征3.多变量梯度下降4.特征缩放5.学习率1.多变量线性回归在第一周的房价和房屋面积的例子中,由于变量只有一个—面积,所以这类机器学习问题称为单变量线性回归,很明显,当变量数量>1时,即为多变量线性回归2.多维特征现在,假设除了房屋面积外,又增加了房屋数量、楼层、房屋年龄等特征,则此模型即变为了多变量的模型,模型的特征为:则相应的多维的假设函数为:为了方便,此时引入:简化一下,假设函数可..转载 2020-08-18 20:38:23 · 608 阅读 · 0 评论 -
第一周 单变量线性回归和损失函数、梯度下降的概念
目录课程回顾例1:房价和面积—预测例2:乳腺癌良性/恶性和尺寸关系2.分类Classification3.回归Regression4.监督学习Supervised Learning5.无监督学习Unsupervised Learning6.假设hypothesis举个栗子误差7.损失函数Cost Function8.二元函数梯度下降Gradient Descent图解概述目标公式参数解释学习率学习率过小学习率过大9.梯度下转载 2020-08-18 20:38:02 · 562 阅读 · 0 评论