自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(8)
  • 收藏
  • 关注

原创 李宏毅机器学习第八周_卷积神经网络_CNN

本文介绍了卷积神经网络(CNN)在图像分类和下围棋等任务中的应用及相关知识点。图像分类是将图像分为不同类别的任务,通过训练一个机器学习模型,模型可以自动从图像数据中提取特征并进行分类。在CNN中,图像被表示为三维张量,通过卷积层、池化层和全连接层等操作,将图像转换为数字表示,用于分类或其他任务。在图像分类中,感受野和参数共享是CNN的重要概念,感受野指卷积层关注的输入图像区域大小,参数共享可以减少模型中需要训练的参数数量。此外,池化层可以减少特征的空间大小,保留重要特征。

2023-07-16 19:20:36 145 1

原创 李宏毅机器学习第七周_深度学习新的优化器

本文介绍了优化方法中的几种常见算法,包括SGD、SGDM、Adagrad、RMSProp和Adam。这些算法在训练神经网络模型时起到关键作用。文章还介绍了一些改进的算法,如RAdam、AMSGrad、AdaBound和Lookahead,它们在提高优化算法性能和稳定性方面具有重要作用。此外,文章还提到了一些优化技巧,如学习率调度策略(如Cyclical LR和One-cycle LR)、参数更新技巧(如NAG和Nadam)以及正则化和防止过拟合的技术(如Dropout和Gradient noise)。

2023-07-09 16:54:40 259 1

原创 李宏毅机器学习第六周_机器学习的原理(神奇宝贝和数码宝贝分类器)

本文介绍了机器学习中神奇宝贝和数码宝贝分类器的原理。通过对输入的神奇宝贝或数码宝贝图片进行边缘检测,计算线条的复杂程度,并根据线条的简单或复杂程度来判断动物是神奇宝贝还是数码宝贝。首先确定一个未知参数h,表示线条复杂程度的限值。然后定义损失函数L,通过计算模型在数据集上的错误率来评估模型的性能。接下来进行优化,选择合适的h使得模型在训练数据集上的损失最小化,希望该h能够在整个数据集上的损失与真实的h的损失接近。

2023-07-02 16:16:34 237 1

原创 李宏毅机器学习第五周_批次(batch)与动量(momentum)、自动调整学习效率

本文介绍了深度学习中的两个重要概念:批次(batch)和动量(momentum)。批次是将训练数据分成一组组小批量进行计算和参数更新的方法,可以提高训练效率和优化结果。动量是在梯度下降的基础上,加入上一步移动方向的结果来更新参数,可以避免在非关键点处卡住。此外,文章还介绍了自动调整学习率的方法。通过根据不同参数的梯度值来调整学习率,可以在梯度较大时减小学习率,在梯度较小时增大学习率,从而提高训练效果。具体的方法包括RMSProp和学习率衰减。最后,文章介绍了学习率衰减和热身的方法。

2023-06-25 18:41:31 1000 1

原创 李宏毅机器学习第四周_机器学习任务攻略、局部最小值与鞍点

本文主要介绍了机器学习任务攻略的三个步骤:定义函数、计算 loss、优化,以及如何解决过拟合、局部最小值和鞍点的概念与判断方法,以及如何挑选适合的模型。在机器学习中,需要对预测目标建立函数,并通过计算 loss 来评估模型的好坏,并使用优化方法找出参数使 loss 最小的过程。如果出现 training 数据集的 loss 值偏大,可能是由于模型 bias 或 Gradient Decent 存在局部最小值的问题,需要重新设计模型或尝试不同的模型来确定问题。

2023-06-18 18:21:29 264 1

原创 李宏毅机器学习第三周_神奇宝贝分类、逻辑回归

本文主要介绍了深度学习中分类问题的解决方法,以神奇宝贝分类为例,通过选取适当的函数和损失函数,以及使用算法如朴素贝叶斯、逻辑回归和多分类算法进行分类预测。对于逻辑回归,其基本原理是将输入特征通过线性加权求和,并经过sigmoid函数转化为0-1之间的值,从而得到样本为正的概率,最后通过交叉熵损失函数优化模型预测结果。需要注意的是,在分类分界线不为直线的情况下,需要进行特征转换或使用多个模型的方法进行解决。

2023-06-11 20:23:47 446 1

原创 李宏毅机器学习第二周_深度学习简介、反向传播、预测神奇宝贝

本周学习了深度学习的步骤与机器学习类似,不同之处在于深度学习里的函数是由神经网络组成的,每一个神经元是一个函数,神经元的参数由权重和偏置组成。在深度学习中,交叉熵是用来衡量实际概率分布与预测概率分布之间差异的一种度量方法,常用于分类问题中,用来衡量模型的预测结果与真实标签之间的差异性,交叉熵越小,说明模型的预测结果越好。反向传播就是用链式求导法则来计算导数,反向传播能够有效率的计算出损失函数,用于更新模型参数。

2023-06-03 22:14:00 252 1

原创 李宏毅机器学习第一周_机器学习基本概念

本文介绍了机器学习的基础知识,包括机器学习的定义、不同类型的函数,以及如何通过Gradient Descent算法找到最佳函数。具体而言,本文以机器学习视频播放量的预测为例,介绍了如何通过调整参数w、b、c得到不同的函数。同时,本文还介绍了深度学习中的神经网络和隐藏层,以及可能出现的过拟合问题。最终,通过学习本文的内容,读者可以了解机器学习和深度学习的基本工作原理和实践方法。

2023-05-28 16:00:29 137 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除