python深度学习实战——第一章深度学习简介

深度学习广泛应用于计算机视觉、自然语言处理、强化学习等领域。

1.1了解深度学习

表征学习:学习从去高维空间到低维空间的映射(降维)维度越高,需要的数据量就越大。Mapping from features:学习器。特征提取(人工选择特征)与学习器是分开的。

深度学习:特征提取与学习器是一起的,卷积。cb8d4a1b1d9e41d4b2e1dca827ff17d7.jpg

 深度学习在各方面的应用成果:搜索技术、数据挖掘、多媒体学习、语音识别、推荐和个性化技术。

深度学习的关键:从数据中学习获取的(学习得到的)。

1.2计算机视觉

计算机视觉传统算法的缺点:

1.缺乏对特征的重视

2.图像特征提取需要人力

3.依赖特征算子

计算机视觉传统算法的成功例子:

1.指纹识别算法

2.基于Hear的人脸检测算法

3.基于HoG特征的物体检测

定义:使用计算机及相关设备对生物视觉的一种模拟。

基本任务:包含图像处理、模式识别(图像识别)、图像理解(景物分析)等。

图像处理技术:把输入图像转换成具有预期特性的另一幅图像。

模式识别技术:根据从图像中抽取的统计特性或结构信息,把图像分成预定的类别。

图像理解技术:对图像内容所包含的信息的理解。

主要任务:通过对采集的图片或视频进行处理以获得相应场景的三维信息。

主要应用:①图像分类②目标检测③实例分割④姿态评估⑤图像重建⑥图像超分辨率⑦图像标题生成⑧物体混合、测量、分拣⑨视觉定位

视觉定位算法分为五个步骤:特征感知→图像预处理→特征提取→特征筛选→推理预测与识别

卷积神经网络(CNN):是一种比较精准的对人脑的模拟。低层的卷积层可以提取到图片的局部特征,例如角、边缘、线条等。

1.3自然语言处理(NLP)

自然语言处理也描述为自然语言理解(NLU)和自然语言生成(NLG)

自然语言→人类用于日常交流的语言

注:自然语言的一个句子背后常包含不直接表述出来的常识和逻辑

自然语言处理目的:用计算机理解和处理人类的语言。

1.3.1自然语言处理的基本问题

语言建模:计算一个句子在一个语言中出现的概率。

词性标注:句子都是由单独的词构成的自然语言处理有时需要标注出句子中每一个词的词性。句子的词并不是独立的,需要考虑词的上下文。

中文分词:将中文句子恰当地切分为单个的词。

句法分析:通过明确句子内两个或多个词的关系来了解整个句子的结构。最终句法分析的结果是一棵句法树。

情感分析:给出一个句子,判断这个句子表达的情感。

机器翻译:最常见的把语言的一个句子翻译成目标语言的一个句子,最终预测出来的整个目标语言句子必须与给定的源语言句子具有完全相同的含义。

阅读理解:有多种形式。有时候是输入一个段落、一个问题,生成一个回答或者在原文中标定一个范围作为回答,有时候是输出一个分类。

语言生成:通过模型和算法,是计算机能够生成符合语法和语义规则的人类语言。

信息检索:通过分析和索引大量的文本数据,是计算机能够快速准确地检索相关信息。

语言理解:通过分析文本和语音,是计算机能够理解人类语言的意义和目的。

1.4强化学习

强化学习是机器学习的一个重要分支,它与非监督学习、监督学习并列为机器学习的3类主要学习方法。

1.4.1监督学习与非监督学习的概念

监督学习:通过带有标签或对应结果的样本训练得到一个最优模型,再利用这个模型将所有的输入映射为相应的输出,已实现分类。

非监督学习:在样本的标签未知的情况下,根据样本间的相似性对样本集进行聚类,使类内差距最小化,学习出分类器。

1.4.2强化学习的4个要素

(1)智能体:智能体是执行任务的实体,只能通过与环境互动来提升策略。

(2)环境状态(St):在每一个时间节点,智能体所处的环境的表示即为环境状态。

(3)行动(at):在每一个环境状态中,智能体可以采取的动作即为行动。

(4)反馈(rt):每到一个环境状态,智能体就有可能会受到一个反馈。

5ee520d2cf8345349e5007d8c3efb64e.jpg

1.4.3强化学习的目标

目标:获得最多的累计奖励(正反馈)。

1.4.4强化学习的特征

特征:

(1)没有监督者,只有一个反馈信号。

(2)反馈是延迟的,不是立即生成的。

(3)强化学习是序列学习,时间在强化学习中具有重要意义;智能体的行为会影响以后所有的决策。

1..4.5强化学习算法简介

强化学习分为Model-Free(无模型的)和Model-Based(有模型的)两大类。

Model-Free(无模型的):智能体不需要理解或计算环境模型。

Model-Based(有模型的):智能体需要理解或计算环境模型。

1.4.6基于概率的算法和基于价值的算法

基于概率的算法:直接输出下一步要采取的各种动作的概率,然后根据概率采取行动。每种动作都有可能被选中,只是可能性不同。基于概率的算法的代表为policy-gradient(策略梯度)算法。

基于价值的算法:输出的则是所有动作的价值,再根据最高价值来选择动作。相比基于概率的算法,基于价值的算法的决策部分更为“死板”——只选价值最高的;而基于概率的,即使某个动作的概率最高,但是还是不一定会选到它。基于价值的算法的代表算法为Q-Learning算法。

1.4.7强化学习的应用

①交互性检索

②无人驾驶

③新闻推荐(推荐算法)

2.1延伸拓展

卷积神经网络:对人脑比较精准的模拟,它模拟了人脑识别图片时感知图片中的局部特征,之后将局部特征综合起来再得到整张图的全局信息的过程。其卷积层通常是堆叠的,低层的卷积层可以提取到图片的局部特征,高层的卷积能够从低层的卷积层中学到更复杂的特征,从而实现到图片的分类和识别。

卷积:两个函数之间的交互关系。在一个计算视觉里面,可以把卷积当做一个抽象的过程,就是把小区域内的信息统计抽象出来。

 

 

  • 5
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值