吴恩达 DeepLearning.AI
文章平均质量分 70
【吴恩达机器学习】教程视频学习记录
卷心菜不想卷
这个作者很懒,什么都没留下…
展开
-
聚类K-means算法
随机指定两个聚类中心,之后一次次的迭代。一次迭代中要做的事只有两件:1. 簇分配。2. 移动中心。原创 2024-05-08 21:27:20 · 282 阅读 · 0 评论 -
降维 主成分分析PCA
当为0.01的时候,表示保留了99%的方差数据,即大部分的数据特征被保留了。PCA做的就是找到一个投影平面使得投影误差最小化。满足上面这个式子,就可以高效地选择出参数k。意思将数据从低维还原到高维的过程。原创 2024-05-08 21:52:07 · 313 阅读 · 0 评论 -
XGBoost算法
XGB是一种基于boosting集成思想的加法模型。原创 2024-05-08 19:07:30 · 97 阅读 · 0 评论 -
决策树及其拓展 吴恩达课程
计算所有可能的信息增益,并选择最高的信息增益,根据选择的特征拆分数据集,并创建左右节点。在所有可能的决策树中,选择一个在训练集上表现良好,并能很好的推广到新数据(即交叉验证集和测试集)的决策树。单个决策树可能会对数据的微小变化高度敏感,即鲁棒性(意思稳定性差)很差。对每个决策树分别进行预测,最后统计结果,选择多数的结果作为最终预测结果。从根节点开始,一步一步划分,直到到达叶子节点,最后输出预测特征值。1.当某个节点的纯度为100%,即该节点的所有样本都属于一个类。3.当拆分节点后,信息增益小于阈值时。原创 2024-05-08 16:39:21 · 508 阅读 · 0 评论 -
吴恩达 深度学习 神经网络 softmax adam 交叉验证
输入层(layer 0)、隐藏层、卷积层(看情况用这个)、输出层。隐藏层一般用relu函数;输出层根据需要,二分类用sigmoid,多分类用softmax…原创 2024-05-08 14:47:44 · 967 阅读 · 0 评论 -
逻辑logistic回归
主要用于zwTxbgx1e−x1将,如下图公式:逻辑回归的作用:输入特征x,并输出一个介于0和1之间的数,这个数为 标签y。原创 2024-05-07 14:32:42 · 885 阅读 · 0 评论 -
随机森林算法
随机森林已经用很多进行了细小修改的数据集来训练算法,并进行平均,所以即便训练集发生一些小变化,也不会对最终输出有很大影响。地从训练集中取出 n 个训练样本,组成新的训练集;(2)利用新的训练集,训练得到M个子模型;多个弱分类器组合成的强分类器。原创 2024-05-08 16:59:22 · 158 阅读 · 0 评论 -
机器学习中的精确度、召回率、F1分数
补充:其他性能评价指标原创 2024-05-08 15:02:35 · 317 阅读 · 0 评论 -
线性回归与多元线性回归 吴恩达
最常用的均方误差:y^hat: x预测出来的y值y:原训练样本中的y值,也就是标准答案用上面的公式可以算出w不同时,J的数是多少,最后做出J衡量平方误差有多少,所以要最小化w对应的值,使得模型最好。其可以用或者。原创 2024-05-06 17:01:59 · 564 阅读 · 0 评论