DL_1_深度学习简介

人工智能和机器学习概述

发展脉络

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

人工智能的三个发展层面

计算智能

计算机具有快速计算和记忆存储能力;

“深蓝”:算法核心基于暴力穷举。

感知智能

能听会说、能看会认。

认知智能

能理解、思考、决策。

AlphaGo。

如何理解人工智能

1956年,达特茅斯会议:“人工智能”概念诞生。

人工智能:使机器向人一样进行“感知”、“认知”、“决策”、“执行”的人工程序或系统。

类人行为方式

人工智能是一种创建机器的技巧,这种机器能够执行需要人的智能才能完成的功能。

图灵测试是检验机器是否具有智能的测试。它要求计算机必须具备“理解语言”、“学习”、“记忆”、“推理”、“决策”。

类人思维方式

人工智能是那些与人的思维,决策,问题求解和学习等有关活动的自动化。

理性思维方法

思维方法的规范化——专家系统。

理性行为方法

人工智能关注人工制品中的智能行为,这种人工制品要指能够动作的智能体。

神经网络和深度学习概述

在这里插入图片描述
这几个领域,彼此之间有交融的部分。

数据挖掘是机器学习的工业应用,但又有其独特的性质。

广义上讲,机器学习是机器通过经验改善自身性能的技术。

发展脉络

1957年 Frank Rosenblatt 感知机;

1986年 Hinton和David Rumelhart BP神经网络;

1989年 Lecun CNN;

1997年 Schmidhuber LSTM;

2006年 Hinton DBN(深度置信网络)&RBM(限制玻尔兹曼机):

  1. RBM相当于一个两层的网络,同一层神经元之间不可连接(所以叫“限制”),可以对神经网络实现无监督训练。DBN就是几层RBM叠加在一起。
  2. RBM可以从输入数据进行预先训练,自己发现重要特征,对神经网络连接的权重进行有效初始化,被称作:特征提取器或者自动编码器。

多层神经网络的训练是从第一层计算到最后一层,然后反向传播进行更新权重,这样的问题是,层数太多的话难以训练。DBN则是采用了逐层训练的方式,每一层都以前面一层作为输入和输出,自己作为中间层,组成了一个自编码器的结构,因此,它的训练也是无监督的。

2007年 CUDA;

2009年 Jia Deng ImageNet;

2011年 Xavier和Yoshua Bengio ReLU;

2016年 Goodfellow GAN;

深度学习应用

在这里插入图片描述

机器学习基本概念

机器学习是专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识和技能,重新组织已有知识结构使之不断改善自身性能。

它是人工智能核心。

基本定理
模型的出错率正比于 模型的复杂程度 / 样本的大小。

基本问题
分类、回归、聚类。

基本要素
数据(训练集,测试集)
学习算法
评价指标

实施过程
在这里插入图片描述

机器学习的核心/任务是从大量数据中学习,找到一个函数/模型。

机器学习和深度学习的区别:
在这里插入图片描述

机器学习整体流程:

在这里插入图片描述

模型的评估与选择

机器学习-模型的评估与选择

深度学习简介

在这里插入图片描述
对于分类问题而言,两者的流程都是一样的,特征提取器与分类器分步。
机器学习的模型是手工设计的,表示能力弱;
深度学习的模型是完整的网络,自主更新,表示能力强。

比如KNN,特征提取对应着距离计算,分类对应着前k个类别标签;

基本框架

在这里插入图片描述
随着网络层数的加深,关注的特征更加全面;

线性模型

线性回归&Logistic回归

线性回归、Logistic回归

正则项

一般目标函数(优化问题目标,ML;损失函数,DL)包含两部分:

数据项:回归/分类的目标,如误差尽可能小或分类尽可能准确;

正则化项:对参数空间的限制/对额外属性的追求。

在这里插入图片描述

正则化可以防止过拟合、控制模型复杂程度;

岭回归(Ridge Regression,L2 norm)

以线性回归问题为例。
在这里插入图片描述

引入

在这里插入图片描述
我们的曲线只是一条关于前两个特征相关的二次曲线,因此我们向目标式子中加入高阶项的参数,希望优化时,将其趋向于0。

正则化的思想是一种将参数缩小的思想,一定程度上减小其影响。

当特征过多时,我们不知道哪些特征有用,因此采用岭回归,对所有参数加以约束。

需要注意的是, λ \lambda λ的设置影响效果,过大的话,会让所有参数趋向于0,从而形成一条直线。

在这里插入图片描述
于是线性回归的解可以更新为:
在这里插入图片描述
当样本数量远小于特征数的时候,有些问题就无法求解逆矩阵。
我们在Fisher Faces中给出的解决方案是,先通过PCA降维,再求解问题;但是通过加入正则化项,上述式子也是可逆的。也就是说,解决矩阵不可逆的另一个方法是,加入正则化项。

类别不平衡

采样时

  1. 过采样
    正例数目少,过采样目的是增加正例数目;
    可用的方法是:样本复制、样本插值、样本生成(GAN)
  2. 降采样
    正例数目少,降采样目的是减少反例数目;

损失函数时

在这里插入图片描述

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

右边是我女神

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值