吴恩达ML
文章平均质量分 63
吴恩达网课
Ari-10010
这个作者很懒,什么都没留下…
展开
-
precision + recall 两者合适的平衡点 F1分数
本例中老师给出了两种算法来对病人进行罕见病的预测,人群中患病概率为0.5%第一种 是二分类算法,患病为1,反之为0,该算法有99%的正确率,误差为1%第二种是暴力的默认为0,准确率为99.5%,误差为0.5%但我们能说第二种是比第一种好的算法吗在处理偏斜数据集的问题时,我们通常使用不同的误差度量,而不仅仅是分类误差来确定算法的性能使用一个二维矩阵来介绍精确率和召回率横为实际的类别,竖为预测的类别,1代表是在本例中会有4种组合,老师分别用4种不同的颜色来进行标注。原创 2023-09-07 15:50:54 · 133 阅读 · 1 评论 -
迭代循环+迁移学习
可以将w1、b1到w4、b4作为顶部的值,并固定他们然后使用随机梯度下降或Adam等算法仅仅更新w5、b5来降低学习识别数字的成本函数。将先前得到的参数转移到新的神经网络,使得新的神经网络有一个更好的条件(参数)去完成任务。假设我们现在的任务是用机器学习来识别手写的0~9,但是我们没有足够的手写数据。将其参数复制给新的神经网络,但要注意的是这个新的神经网络(本例中)只有四层。查看算法的方差、偏差以及错误分析等,根据训练的结果来做出下一步的决定。训练算法将输入的图像作为X,并学会输出为这一千类的其中一个。原创 2023-08-29 16:43:43 · 137 阅读 · 1 评论 -
P63~71 激活函数相关+softmax+多输出/标签分类
其实不只有这些,还有其他类型的激活函数,不过老师认为掌握视频中的已经足够了。梯度下降优化了成本函数,但激活函数也是计算的一部分,这也会导致减慢学习速度。softmax是多分类,来帮助判断car/bus/人中的哪一个,只管结果。中间的是预测股票的涨跌,因为可能出现正负,所以是采用线性的激活函数。第二:图像上来看,ReLU只有一侧是平坦的,而sigmoid是两侧。右侧是预测房价,采用了ReLU,房价不可能是负数,所以左侧全为0。而多标签是我要知道结果,并且结果的内容要标注清楚,类似目标检测。原创 2023-07-02 10:20:43 · 134 阅读 · 1 评论 -
P32~41 逻辑回归+逻辑回归的代价函数+过拟合及其解决方法+正则化
正则化的作用是可以保留所有特征,但他们只是防止产生过大的影响,通常做法是减少参数的大小。对于正常数据集来说,会出现蓝色的线性回归,在标准0.5处做垂线,左侧为良性,右侧恶性。当z为负很小的数时,负负得正,使得分母很大,g(z)接近于0,反之g(z)接近于1。过拟合,完美契合训练集中的数据 ,但也因此对新的数据不能做很好的预测,不适合推广。但实际应用中,正则化往往有很多参数,我们不知道哪些是最重要的特征,哪些是要惩罚的。第二步,将第一步的z传入逻辑函数,然后由逻辑函数计算,最后的值将介于0和1之间。原创 2023-06-14 17:39:19 · 93 阅读 · 0 评论 -
P22~ 24 吴恩达 向量化
这个方法使用到了向量的点积,利用numpy中的点函数,当n很大时,这个方法比前两个更快。w是一个有三个数字的向量,同时x也是一个有三个数字的特征向量,注意下标从0开始。矢量化中,计算机可以获得向量w和x的所有值,并在一步中同时计算这16个乘法。在for循环这个方法中,他是一次次的进行计算,一共计算了16轮。学习算法时,使用矢量化既可以缩短代码,又可以提高运行效率。当维数低时,我们可以任性的按我们习惯的方式敲代码。1、使代码更简洁,从例子看出,矢量化只需要一行即可。但如果维数很高,这时效率就会很低。原创 2023-06-11 16:04:33 · 63 阅读 · 1 评论 -
P11~14 代价函数
为此我们构建一个cost function ,讲预测值和实际值的差值做比较,这个差值称之为误差。在ML中,不同的程序会使用不同的成本函数,但平方差误差是迄今为止最常用的函数,多用于线性回归。x是input,y是output,w和b是可调节的参数 ,我们也可以称这两个为系数或者权重。会出现类似等高线的情况,从上往下看这个碗,在这个圆圈上的点的J取值相等。所有现在的问题是如何找到合适的w和b,以便预测y hat i。不同的w会有不同的J(w),然后慢慢绘制出下图。选择不同的w和b能得到不同的函数和图像。原创 2023-06-08 17:25:32 · 70 阅读 · 0 评论