《深度学习》学习笔记(三)

Classification & Regression

分类和回归是数据分析问题中特别常见的两类问题。
在这里插入图片描述
softmax函数
在这里插入图片描述
当有两个class时,直接用sigmoid函数就可。其数学形式: f ( x ) = 1 1 + e − x f(x) = \frac{1}{1+e^{-x}} f(x)=1+ex1

Loss of Classification

在这里插入图片描述
Minimizing cross-entropy is equivalent to maximizing likelihood.
Cross-entropy的形式: e = − ∑ i y i ^ l n y i ′ e=-\sum_i\hat{y_i}lny_i' e=iyi^lnyi
MSE vs Cross-entropy
在这里插入图片描述
也就是说,在优化的时候,MSE在左上角loss很大的时候,gradient太小,很有可能导致train失败。

Batch Normalization

在这里插入图片描述
上面这张图就是在说,我们想让对于不同维度的输入 x x x,其 w w w有相同的范围,这样就引出了feature normalization,下面讲其中一个方法(就是常见的标准化):
在这里插入图片描述

Batch normalization -Testing

在这里插入图片描述
在testing的时候,可以直接利用traing得到的 σ \sigma σ μ \mu μ

CNN for image

每个neuron只关心自己的receptive field(大小自己定)
在这里插入图片描述
在这里插入图片描述
上面的图片提到了几个基本概念:
kernel size、stride、padding、channel
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
共享的参数其实就是filter。
Each filter convolves over the input image.
Therefore, this network is called CNN.(convolutional)
在这里插入图片描述
下采样和池化是包含关系,池化属于下采样,而下采样不局限于池化。
在这里插入图片描述

playing go

在这里插入图片描述
把棋盘看作19*19的图片,预测下一步棋子落在哪里最好。48 channels?
在这里插入图片描述
AlphaGo的网络架构:
在这里插入图片描述
Alpha Go是没有使用pooling的。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值