第一门课_神经网络和深度学习_第一周_深度学习引言

1.1 深度学习简介

1.2 神经网络

激活函数:sigmoid、tanh、ReLU
输入层·、输出层、隐藏层

1.3 神经网络的监督学习

CNN convolutional neural network 卷积神经网络 图像
RNN recurrent neural network 循环神经网络 与时间有关的序列
结构化与非结构化数据:
结构化:数据库数据,每个特征都有明确的定义
非结构化:图像、文本等数据,特征可能是像素、单词等等

1.4 深度学习兴起

数据规模越来越大、计算水平越来越高以及算法的创新
传统机器学习、深度学习性能比较
传统机器学习方法数据量到达一定程度时,随着数据量的增加,函数变化程度小,性能不再提高;而深度学习的方法随着数据的增加,函数不断变化,性能越来越好。
激活函数梯度比较

算法方面:激活函数从Sigmoid到ReLU(修正线性单元)
Sigmoid的梯度会逐渐趋近于0,学习过程会很缓慢;ReLU(输入非负时)的梯度恒定为1。这对于梯度下降法有利。
缩短循环周期
快速计算缩短了修改神经网络框架的周期。

1.5 关于这门课

课程总目录
第一门课程目录

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值