深度学习基础知识扫盲

深度学习

监督学习(Supervised learning)

计算机通过示例进行学习,它从过去的数据进行学习,并将学习结果应用到当前数据中,以预测未来事件,在这种情况下,输入和期望的输出数据都有助于预测未来事件。

监督学习分类

  • 回归(regressing)模型
    通过一系列的训练集,训练出回归算法,来预测新的数据。常见的回归算法有线性回归、逻辑回归、多项式回归和脊回归。
  • 分类(classification)模型
    分类模型可以对输出的变量进行分类,例如:“是“”否“,用于预测数据的类别。比如垃圾邮件检测、情绪分析。

在现实生活中的一些应用有:
文本分类

  • 垃圾邮件检测
  • 天气预报
  • 根据当前市场价格预测房价
  • 股票价格预测等
  • 人脸识别
  • 签名识别
  • 客户发现

无监督学习(Non-supervised learning)

它的本质上是一种统计手段,在没有标签的数据里可以发现潜在的一些结构的一种训练方式。主要具备三个特点:1.没有明确的目的。2.不需要给数据打标签。3.无法量化效果。

无监督学习的算法

  • 聚类
    简单说就是一种自动分类的方法,在监督学习中,你很清楚每一个分类是什么,但是聚类则不是,你并不清楚聚类后的几个分类每个代表什么意思
  • 降维
    降维看上去很像压缩。这是为了在尽可能保存相关的结构的同时降低数据的复杂度。

无监督学习使用场景

  • 发现异常

有很多违法的行为都需要”洗钱“,这些洗钱行为跟普通用户的行为是不一样的,到底哪里不一样?
如果通过人为去分析是一件成本很高很复杂的事情,我们可以通过这些行为特征对用户进行分类,这样容易能找到行为异常的用户,然后再深入分析他们的行为到底哪里不一样,是否属于违法洗钱的范畴。

通过无监督学习,我们可以快速把行为进行分类,虽然我们不知道这些分类意味着什么,但是通过这种分类,可以快速排出正常的用户,更有针对性的对异常行为进行深入分析。

  • 用户细分

这对于广告平台很有意义,我们不仅按照用户的性别、年龄、地理位置等维度对用户进行细分,还可以通过用户的行为对用户进行分类。以便为用户推荐个性化内容。

  • 推荐系统
    淘宝天猫推荐系统,根据用户的购买行为和浏览行为推荐一些相关产品,有些商品是通过无监督学习的聚类推荐出来的。

术语

特征值

每个数据都有自己的属性,这个独特的属性就是特征值。

特征向量

多个特征值所组成的向量。

特征工程(Feature engineering)

通过变换或者组合原特征值,使用直觉去设计新的特征值的工程。
根据长和宽,来设计area面积。
在这里插入图片描述

特征缩放

因为某些属性的数值过大或过小,影响梯度计算,因此要通过放大或所想来修改特征值到合适的位置。

Sigmod function

通过该函数,可以控制输出值在0~1之间。
在这里插入图片描述

决策边界

决策边界有线性的也有非线性的,可有sigmod function函数得来。

在这里插入图片描述
在这里插入图片描述

激活函数

过拟合/欠拟合

过拟合是训练集训练出来的模型,过于贴合实际数据,导致估计值不准确。

在这里插入图片描述
如何解决过拟合的问题呢?

  1. 有更多训练集在这里插入图片描述

  2. 过多特征但训练集少(删除相应特征,缩小大特征的影响) 在这里插入图片描述
    在这里插入图片描述

  3. 正则化(惩罚所有w值,保证值没有太大偏差)
    在这里插入图片描述

逻辑回归算法

  • 逻辑回归函数
    在这里插入图片描述
  • 逻辑回归的成本函数(使用交叉熵来写),aj越接近1,说明估计成本越小。
  • 左边是简单的二元分类函数;右边是Siftmax函数,解决多分类的回归问题。
    在这里插入图片描述

多类(mutil-classes)分类与多标签(multi-lable)分类

mutil-classes classifition 类似于识别一个数字是几,只能是0~9中的一个数字,输出结果是一个数字。
而multi-lable classifition 是一个识别多种标签的问题,输出是一个向量。
在这里插入图片描述

卷积层(Convolutional Layer)

每个神经元只查看输入图像区域的层级,称为卷积层。
在这里插入图片描述
卷积神经网络:
在这里插入图片描述

前向传播算法(forward propagation)

通过输入值,假设w和b,一步一步往后计算。
在这里插入图片描述

反向传播算法(back propagation)

根据前向传播算法的值,从后往前求偏导
在这里插入图片描述

计算图(computation graph)

描述计算过程的图像
在这里插入图片描述
在这里插入图片描述

Training Set/ Validation Set/ Test Set

训练集:用来训练w,b的参数。生成w,b。
交叉验证集、开发集、验证集:用来选择具体的模型。生成d。
测试集:要有泛化评估能力,不能参与参数生成。

在这里插入图片描述

高偏差/和高方差

在这里插入图片描述
左图是高偏差,右图是高方差。


  • 高偏差不能只增大训练集数据量,没用!!
    在这里插入图片描述
  • 高方差可以增加训练集的数据量,来减小Jcv!!!
    在这里插入图片描述

针对高方差和高偏差的解决方法:
在这里插入图片描述


如何
在这里插入图片描述

正则化项(Lambda)

正则化可以调整参数的权重,从而影响fit的效果。

在这里插入图片描述

Lambda越大,算法越试图保持平方项越小,正则化项的权重越大,对训练集实际的表现关注越少。(欠拟合);Lambda越小,越过拟合。

基准性能水平

可以合理的希望学习算法最终达到的误差水平;建立基准性能水平常见的是:衡量人在这项任务上的表现;或者是对比其他相似的算法。

在这里插入图片描述

学习曲线(learning curves)

为什么训练集越大,训练集的损失函数越大?
以右面的图为例:数据越多,二次函数越难拟合数据,只有一个数据时,能完美拟合,但当数据越来越越多,损失函数就越大。
为什么验证集的损失函数越来越小呢?
因为训练集越大,越可能准确,因此验证集的损失函数会变小。
在这里插入图片描述

数据增强(data augmentation)

通过修改已有的数据,(图片放缩,反转,透视变换、扭曲失真)或者音频变换(添加背景噪音)来变成新的样例。通过这些方法,可以获得更多数据。

在这里插入图片描述

迁移学习(Transfer learning)

将别人训练好的模型和网络(包括参数,但不包括output layer的参数,因为结果不一样),完全复制过来,由于output lunits 不同,所以w5,b5不能用,因此用前4组w,b训练第五组‘或者仅仅复制网络,参数自己训练。
在这里插入图片描述

方法一:适用训练集较少的情况,数据不够。
方法二:使用训练集较多的情况,数据量充足,自己训练更好。


迁移学习的步骤:
在这里插入图片描述

准确率/召回率(Precision/recall)

(稀有病的预测)
Precision:预测的稀有病的准确率,如下表:(越高越好)
recall():在所有得病的人群中,被检测出有病的概率。越高越好。

在这里插入图片描述


如何权衡精度与召回率之间的关系:
高精度:更偏向于信任True
高召回:更偏向信任False
在这里插入图片描述

调和平均数(harmonic mean)

这种mean更加倾向于较小的平均数:

在这里插入图片描述
在这里插入图片描述

熵(Entrop)

表示一个样本的混乱程度,熵越大,样本越混乱,越不纯。
在这里插入图片描述

信息增益(Information Gain)

P96
熵的减少/减少杂质/增大纯度称为信息增益。
在构建决策树中,如何选择特征先后?如何停止构建树?
根据信息增益的大小,信息增益越大,越先选择这个特征,当信息增益特别小时,就不在构建树。
下图是分类问题构建决策树,优先构建0.28

在这里插入图片描述
下图是决策树对回归问题的泛化:
在这里插入图片描述

one-hot enconding

适用于决策树的一种编码方式 。通过将特征设置为0、1,来构建决策数。

在这里插入图片描述

置换抽样(Sampling with replacement)

有放回的随机抽样。

随机森林算法(random forest algorithm)

假如有n个特征,随机选取k = 根号n个特征,根据k个特征,构建决策树模型,这样构建出多个决策树模型,叫做随机森林。

clustering(聚类)

聚类属于无监督算法,目的是在无规则的数据中,找出隐藏的联系,然后将数据分类,但是我们并不知道分类的结果对不对。

K-means algorithm(K-均值算法)

聚类的典型算法之一,算法的主要思想:
1.随机选取k个点,作为k个聚簇的质心,分别计算每个数据到该质心的距离
2.重新把数据分配到距离他们最近的质心,根据重新的分组,计算每个聚簇的新质心。
3.重复上面两步骤。

在这里插入图片描述


K-means 的成本函数,又叫失真函数。
在这里插入图片描述
Elbow method:选择合适的集群的一种方法

在这里插入图片描述

Anomaly Detection algorithm(异常检测)

通过数据集把正常的数据,控制在一个范围,超过这个范围的数据,就有可能产生问题,我们就需要注意一下,对该数据进行更加细致的检测。
如下图,绿色数据,就是异常的数据,需要对它特殊检测。

在这里插入图片描述
在这里插入图片描述


使用Gussian分布来构建异常检测系统:
在这里插入图片描述


如何对异常检测算法进行评估:
在这里插入图片描述

recommend system

推荐系统:类似于购物网站、电影网站的推荐界面。
如何使用推荐系统预测参数呢?
在这里插入图片描述

推荐系统的单用户cost function:
在这里插入图片描述
推荐系统的所有用户之和的cost function:

在这里插入图片描述

Collaborative filtering(协同过滤算法)

从多个用户来收集数据,用户之间的这种协作可以帮助您预测未来甚至其他用户的评分

用已知的数据,对推荐系统的w,b,x一起学习。
以下为成本函数:
在这里插入图片描述
此时梯度下降:x也是一个参数
在这里插入图片描述
将回归问题推广到二进制标签的分类问题。

在这里插入图片描述

Mean Normalization (均值归一化)

Content-based filtering(基于内容的过滤算法)VS协同过滤算法

在这里插入图片描述

Principal Components Analysis(PCA)(主成成分分析)

当特征太多时,几十、上百、上千个特征时,我们可以利用PCA来减少特征至2-3个,从而可以绘图分析数据。

强化学习(Reinforcement Learning )

强化学习通过类似于奖励机制的算法,走对了加分,走错了减分,来让机器自动学习一套比较完美的行为。

回报(Return)

获得奖励的效率。获得奖励越早,回报越高。

折扣因子

在这里插入图片描述
获得奖励越晚,折扣因子的作用越明显。

Policy(控制器/决策)

用来决定做什么决策的算法。
在这里插入图片描述

Markov Decision Process(MDP)

对未来的决策只取决于当前状态而不取决于当前状态之前的任何环境;只关注你现在的状态,而不关注你是如何到达这里的。

QSA(action-value function)

用来描述当前动作价值的函数。
在这里插入图片描述

Bellman Equation(贝尔曼方程)

在这里插入图片描述


增加了控制概率(失步概率)的贝尔曼模型:

在这里插入图片描述

详细学习参考:吴恩达老师的机器学习课程视频。

【(强推|双字)2022吴恩达机器学习Deeplearning.ai课程】

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值