自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 收藏
  • 关注

原创 深度学习第四周课程

深层神经网络有更好的表示能力,深层神经网络可以通过多层非线性变换来提取数据的高级特征,从而更好地表示输入数据。深层神经网络需要大量的数据来训练它的参数。反向传播是一种用于训练人工神经网络的算法,它可以根据输入和期望输出计算出网络中每个神经元的误差,然后使用链式法则将误差从输出层一直传递到输入层,从而更新网络中的权重和偏置。上图是一个四层的有三个隐藏层的神经网络,然后隐藏层中的单元数目是5,5,3,然后有一个输出单元。w1和b1会影响在第一层的参数,即是神经网络的第一层,之后经过激活函数,进入到下一层。

2023-07-23 15:04:19 41 1

原创 深度学习第三周课程

事实证明,如果你使用线性激活函数或者没有激活函数,那么无论你的激活函数有多少层,一直在做的只是计算线性激活函数,所以不如去掉全部隐藏层。因此,隐藏层的激活函数必须要是非线性的。只有一个地方可以用线性激活函数g(z)=z,如果你要机器学习的是回归问题,所以y是实数,比如预测房价,y是实值,那么输出层用线性激活函数也许可行,但是隐藏层不能用线性激活函数。具体情况,具体分析。在这里z是一个4*1的矩阵,W是一个4*3的矩阵,x是3*1的矩阵,也就是输入值,并且,在第一层中,x为a[0],b是一个4*1的矩阵。

2023-07-16 13:45:58 45 1

原创 深度学习第二周课程

该图上半部分为逻辑回归,下半部分为神经网络,神经网络相比于逻辑回归来说,其主要多了一层隐藏层,在神经网络中, x1,x2,x3为网络的输入层,中间一层的圆圈为网络的隐藏层,在该图中另一层圆圈为输出层,在该网络中,输出层只有一个结点,其主要负责输出预测值。在逻辑回归中,计算函数z=w*x+b中w和x都是n维向量,在代码实现中, 若是采用非向量方法来实现,则需要循环迭代的方式来计算每一个元素的乘积并相加得到最终结果,计算复杂并且速度慢,而采用向量化的实现,则非常直接,使用np.dot即可实现。

2023-07-08 23:08:50 42

原创 深度学习第一周

这里神经网络结构简单,并且输入只有一个,我们可以获得更多的特征来作为输入,这些特征可以影响房子的价格,例如,房子大小,卧室数量,地理位置等,通过更多的特征,构建复杂的神经网络,从而对房价做出预测。梯度下降基于函数的导数,通过不断迭代来更新模型的参数,使得损失函数的值逐渐缩小。在训练一个机器学习模型时,我们的目标是尽可能地减小这个损失函数的值,从而使得模型的预测结果与真实结果之间的差距最小化。梯度下降是一种常用的优化算法,用于求解最小化某个函数的参数值,梯度下降就是一种常用的求解最小化损失函数的方法。

2023-07-02 17:44:41 45 1

原创 吴恩达第十一周课程

在强化学习中,策略是智能体学习的重要部分,因为智能体的目标是通过与环境交互最大化累积奖励,而策略会影响智能体在环境中的行为和决策。强化学习中的智能体会在一个环境中进行学习,它需要根据当前状态作出决策,并接受环境的奖励或惩罚。在每个时间步,智能体会根据当前的状态选择一个行动,环境会返回一个奖励信号作为回报,智能体会根据这个回报来更新策略,这个过程就是强化学习的基本流程。在强化学习中,智能体通过与环境的交互来学习,智能体的目标就是学习到一种最优策略,使得在不同的状态下采取不同的行动能够获得最大的回报。

2023-06-23 20:22:11 69 1

原创 吴恩达课程第十周

我们将使用两个矩阵来表示用户和物品的特征。其中,用户特征矩阵的大小为5 x 2,表示每个用户的特征向量为2维;物品特征矩阵的大小为4 x 2,表示每个物品的特征向量为2维。模型的核心是预测用户对物品的评分。我们将用户特征向量和物品特征向量按元素相乘,得到一个长度为2的向量,再将其相加得到预测的评分。我们使用平方误差作为损失函数,优化器选择Adam。

2023-06-18 18:07:17 29 1

原创 吴恩达课程第九周

K-means算法做的第一件事就是随机猜测集群的中心在哪里,以二分类为例,会首先确定两个质心,或者可以说是两类的一个中心,然后遍历数据集中所有的点,计算离哪类的点更近就属于哪一类。K-means算法在初始化时,随机选择不同位置的分类聚点会导致不同的结果,运行多次K-means算法,将这些不同结果的成本函数进行对比,最低的那个效果更好。在k=3处为肘部,可以选择该处作为分类类别,而对于另一种平滑的减少,没有明显肘部的,可以选择类别最大,也就是成本函数最低的作为分类类别。

2023-06-11 19:30:15 45 1

原创 吴恩达课程第八周

在构建决策树时,关键一点要决定如何确定拆分截止,在上述例子中,将其完全分类才截止,但往往有时要达到该目的,要进行多次分类,会导致决策树的高度太高,因此,往往会定义决策树的深度,在到达该深度后,不再往下分类。而这些不同的决策树,有的会做的更好,有的会做的更差,决策树算法是在众多决策树模型中,找到一个在训练集上表现更好的决策树以便可以推广到更多的数据集。第二步,确定左半部分所使用的特征,将其分类后,若是分为两类后,一类全为猫,一类不为猫,则可以在该位置设为叶子节点,实现分类,否则,继续重复上述步骤。

2023-06-04 19:23:08 54

原创 吴恩达第七周课程

在这里,横1、0代表真是分类,竖1、0代表预测分类,(1,1)和(0,0)代表预测为正确,(1,0)代表真实为1类预测为0类,(0,1)代表,真实为0类,预测为1类。可以通过调整阈值来权衡精度和召回率,这里精度代表着可以没有并被误判为有病,而召回率代表着可以有病而被判为没病,如果召回率过低,可以会导致无法及时治疗,而精度过低可以又会增加无用的花销,因此要根据实际情况,灵活设置阈值,来权衡精度和召回率。对一个机器学习模型,可以根据其要达到的功能增加一些数据进行训练,增加模型的性能。二、运行并训练模型。

2023-05-28 15:33:32 35

原创 吴恩达第六周课程

如何评估训练模型的好坏。

2023-05-24 13:03:08 28

原创 吴恩达课程第五周

在神经网络中,为实现多分类,输出层由原来二分类的一个神经元变为多个神经元,例如输出0到9,输出层便有10给神经元,每一个神经元代表一个数字,在最后输出层使用softmax激活函数,同时该输出层称为Softmax输出层,得到最终的类别。确定所使用损失函数,例如二分类问题可以使用二元交叉熵损失函数,在回归问题中可以使用均方差损失函数,进而确定损失取平均值,得到神经网络的成本函数。回归问题中,像预测明天股价涨跌的可以使用线性激活函数,对于房子价格这种输出没有负值的可以使用ReLU激活函数。2、如何选择激活函数。

2023-05-14 15:54:57 81

原创 吴恩达课程第四周

输入层,隐藏层,输出层。输入层可以看作第0层,隐藏层可以有多层,并且每层的神经元数量自由确定。而隐藏层各层的神经元数量和层数都会对输出层结果有影响,在后续的学习中,来学习如何确定隐藏层的层数及神经元的数量来达到更好的效果。每层的输入都是一个向量,在隐藏层中,该层的输出与该层的参数以及上一层的输入有关。

2023-05-07 17:43:39 66

原创 吴恩达第三周课程学习

对于一个二分类来说,最终结果可用0或1来分别代表两类,采用sigmoid函数来预测时,其输出为0到1间任意的数,显然不符合我们所要达到的目的,比如当其值为0.8时,可以看出,其分类为1的概率是80%,为0的概率是20%,从而可以把其归为1类。并且,决策边界可以为直线,也可以为曲线。对于分类模型,以二分类为例,将训练集中的不同类型完全分为两类,在这些数据中, 往往可能存在某些较少的0类数据在1类数据之间,而过拟合所给出的决策边界往往过于复杂,尽管在训练集上有较好的表现,但可能并不是我们所需要的模型。

2023-04-30 20:52:50 55 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除