吴恩达Coursera深度学习课程 DeepLearning.ai 提炼笔记(4-4)-- 特殊应用:人脸识别和神经风格迁移

吴恩达Coursera深度学习课程 DeepLearning.ai 编程作业(4-4)----------

作者大树先生
博客http://blog.csdn.net/koala_tree
知乎https://www.zhihu.com/people/dashuxiansheng
GitHubhttps://github.com/KoalaTree
2017 年 11 月 27日


Ng卷积神经网络部分,完结撒花!以下为在Coursera上吴恩达老师的 DeepLearning.ai 课程项目中,第四部分《卷积神经网络》第四周课程“特殊应用:人脸识别和神经风格迁移”关键点的笔记。本次笔记几乎涵盖了所有视频课程的内容。在阅读以下笔记的同时,强烈建议学习吴恩达老师的视频课程,视频请至 Coursera 或者 网易云课堂。


同时我在知乎上开设了关于机器学习深度学习的专栏收录下面的笔记,以方便大家在移动端的学习。欢迎关注我的知乎:大树先生。一起学习一起进步呀!_


卷积神经网络 — 特殊应用:人脸识别和神经风格迁移

Part 1:人脸识别

1. 人脸验证和人脸识别

人脸验证(Verification):

  • Input:图片、名字/ID;
  • Output:输入的图片是否是对应的人。
  • 1 to 1 问题。

人脸识别(Recognition):

  • 拥有一个具有K个人的数据库;
  • 输入一副人脸图片;
  • 如果图片是任意这K个人中的一位,则输出对应人的ID。

人脸识别问题对于人脸验证问题来说,具有更高的难度。如对于一个验证系统来说,如果我们拥有 99 % 99\% 99%的精确度,那么这个验证系统已经具有了很高的精度;但是假设在另外一个识别系统中,如果我们把这个验证系统应用在具有K个人的识别系统中,那么系统犯错误的机会就变成了K倍。所以如果我们想在识别系统中得到更高的精度,那么就需要得到一个具有更高精度的验证系统。

2. one shot learning

对于大多数的人脸识别系统都存在的一个问题就是one shot learning。

什么是one shot learning:

对于一个人脸识别系统,我们需要仅仅通过先前的一张人脸的图片或者说一个人脸的样例,就能够实现该人的识别,那么这样的问题就是one shot 问题。对于存在于数据库中的人脸图片,系统能够识别到对应的人;而不在数据库中的人脸图片,则系统给出无法通过识别的结果。

还在路上,稍等...

对于one shot learning 问题,因为只有单个样本,是不足以训练一个稳健的卷积神经网络来进行不同人的识别过程。而且,在有新的样本成员加入的时候,往往还需要对网络进行重新训练。所以我们不能以传统的方法来实现识别系统。

Similarity 函数:

为了能够让人脸识别系统实现一次学习,需要让神经网络学习 Similarity 函数:

  • d(img1, img2):两幅图片之间的差异度
  • 输入:两幅图片
  • 输出:两者之间的差异度
  • 如果 d ( i m g 1 , i m g 2 ) ⩽ τ d(img1, img2) \leqslant \tau d(img1,img2)τ,则输出“same”;
    如果 d ( i m g 1 , i m g 2 ) > τ d(img1, img2) > \tau d(img1,img2)>τ,则输出“different”.

对于人脸识别系统,通过将输入的人脸图片与数据库中所拥有的图片成对输入Similarity函数,两两对比,则可解决one shot problem。如果有新的人加入团队,则只需将其图片添加至数据库即可。

3. Siamese 网络

利用Siamese 网络来实现 Similarity 函数。

构建网络:

还在路上,稍等...

对于一个卷积神经网络结构,我们去掉最后的softmax层,将图片样本1输入网络,最后由网络输出一个N维的向量(图中实例以128表示),这N维向量则代表输入图片样本1的编码。将不同人的图片样本输入相同参数的网络结构,得到各自相应的图片编码。

Similarity 函数实现:

将Similarity 函数表示成两幅图片编码之差的范数:

d ( x 1 , x 2 ) = ∣ ∣ f ( x 1 ) − f ( x 2 ) ∣ ∣ 2 2 d(x1, x2) = ||f(x1)-f(x2)||_{2}^{2} d(x1,x2)=f(x1)f(x2)22

那么也就是说:

  • 我们的神经网络的参数定义了图片的编码;
  • 学习网络的参数,使我们得到好的Similarity 函数:
    • 如果 x 1 , x 2 x_{1},x_{2} x1x2是同一个人的图片,那么得到的 ∣ ∣ f ( x 1 ) − f ( x 2 ) ∣ ∣ 2 ||f(x1)-f(x2)||^{2} f(x1)f(x2)2很小;
    • 如果 x 1 , x 2 x_{1},x_{2} x1x2不是同一个人的图片,那么得到的 ∣ ∣ f ( x 1 ) − f ( x 2 ) ∣ ∣ 2 ||f(x1)-f(x2)||^{2} f(x1)f(x2)2很大。

4. Triplet 损失

如何通过学习神经网络的参数,得到优质的人脸图片的编码?方法之一就是定义 Triplet 损失函数,并在其之上运用梯度下降。

学习目标:

为了使用Triplet 损失函数,我们需要比较成对的图像(三元组术语):

还在路上,稍等...
  • Anchor (A): 目标图片;
  • Positive(P):与Anchor 属于同一个人的图片;
  • Negative(N):与Anchor不属于同一个人的图片。

对于Anchor 和 Positive,我们希望二者编码的差异小一些;对于Anchor 和Negative,我们希望他们编码的差异大一些。所以我们的目标以编码差的范数来表示为:

d ( A , P ) = ∣ ∣ f ( A ) − f ( P ) ∣ ∣ 2 ⩽ ∣ ∣ f ( A ) − f ( N ) ∣ ∣ 2 = d ( A , N ) d(A,P)=||f(A) - f(P)||^{2} \leqslant ||f(A) - f(N)||^{2} = d(A,N) d(A,P)=f(A)f(P)2f(A)f(N)2=d(A,N)

也就是:

∣ ∣ f ( A ) − f ( P ) ∣ ∣ 2 − ∣ ∣ f ( A ) − f ( N ) ∣ ∣ 2 ⩽ 0 ||f(A) - f(P)||^{2} - ||f(A) - f(N)||^{2} \leqslant 0 f(A)f(P)2f(A)f(N)20

上面的公式存在一个问题就是,当 f ( A ) = f ( P ) = f ( N ) = 0 f(A)=f(P)=f(N)=0 f(A)=f(P)=f(N)=0时,也就是神经网络学习到的函数总是输出0时,或者 f ( A ) = f ( P ) = f ( N ) f(A)=f(P)=f(N) f(A)=f(P)=f(N)时,也满足上面的公式,但却不是我们想要的目标结果。所以为了防止出现这种情况,我们对上式进行修改,使得两者差要小于一个较小的负数:

∣ ∣ f ( A ) − f ( P ) ∣ ∣ 2 − ∣ ∣ f ( A ) − f ( N ) ∣ ∣ 2 ⩽ − α ||f(A) - f(P)||^{2} - ||f(A) - f(N)||^{2} \leqslant - \alpha f(A)f(P)2f(A)f(N)2α

一般将 α \alpha α写成 + α +\alpha +α,称为“margin”。即:

∣ ∣ f ( A ) − f ( P ) ∣ ∣ 2 − ∣ ∣ f ( A ) − f ( N ) ∣ ∣ 2 + α ⩽ 0 ||f(A) - f(P)||^{2} - ||f(A) - f(N)||^{2} + \alpha \leqslant 0 f(A)f(P)2f(A)f(N)2+α0

不同 margin 值的设置对模型学习具有不同的效果,margin 的作用就是拉大了 Anchor与Positive 图片对 和 Anchor与Negative 图片对之间的差距。

Triplet 损失函数:

Triplet 损失函数的定义基于三张图片:Anchor、Positive、Negative。

L ( A , P , N ) = max ⁡ ( ∣ ∣ f ( A ) − f ( P ) ∣ ∣ 2 − ∣ ∣ f ( A ) − f ( N ) ∣ ∣ 2 + α ,   0 ) L(A,P,N) = \max (||f(A) - f(P)||^{2} - ||f(A) - f(N)||^{2} + \alpha, \ 0) L(A,P,N)=max(f(A)f(P)2f(A)f(N)2+α, 0)

整个网络的代价函数:

J = ∑ i = 1 m L ( A ( i ) , P ( i ) , N ( i ) ) J = \sum\limits_{i=1}^{m}L(A^{(i)},P^{(i)},N^{(i)}) J=i=1mL(A(i),P(i),N(i))

假设我们有一个10000张片的训练集,里面是1000个不同的人的照片样本。我们需要做的就是从这10000张训练集中抽取图片生成(A,P,N)的三元组,来训练我们的学习算法,并在Triplet 损失函数上进行梯度下降。

注意:为了训练我们的网络,我们必须拥有Anchor和Positive对,所以这里我们必须有每个人的多张照片,而不能仅仅是一张照片,否则无法训练网络。

三元组(A,P,N)的选择:

在训练的过程中,如果我们随机地选择图片构成三元组(A,P,N),那么对于下面的条件是很容易满足的:

d ( A , P ) + α ⩽ d ( A , N ) d(A,P) + \alpha \leqslant d(A,N) d(A,P)+αd(A,N)

所以,为了更好地训练网络,我们需要选择那些训练有“难度”的三元组,也就是选择的三元组满足:

d ( A , P ) ≈ d ( A , N ) d(A,P) \approx d(A,N) d(A,P)d(A,N)

  • 算法将会努力使得 d ( A , N ) d(A,N) d(A,N)变大,或者使得 d ( A , N ) + α d(A,N) + \alpha d(A,N)+α变小,从而使两者之间至少有一个 α \alpha α的间隔;
  • 增加学习算法的计算效率,避免那些太简单的三元组。

最终通过训练,我们学习到的参数,会使得对于同一个人的图片,编码的距离很小;对不同人的图片,编码的距离就很大。

还在路上,稍等...

对于大型的人脸识别系统,常常具有上百万甚至上亿的训练数据集,我们并我容易得到。所以对于该领域,我们常常是下载别人在网上上传的预训练模型,而不是从头开始。

5. 脸部验证和二分类

除了利用 Triplet 损失函数来学习人脸识别卷积网络参数的方法外,还有其他的方式。我们可以将人脸识别问题利用Siamese网络当成一个二分类问题,同样可以实现参数的学习。

Siamese 二分类改进:

对两张图片应用Siamese 网络,计算得到两张图片的N维编码,然后将两个编码输入到一个logistic regression 单元中,然后进行预测。如果是相同的人,那么输出是1;如果是不同的人,输出是0。那么这里我们就将人脸识别的问题,转化为一个二分类问题。

还在路上,稍等...

对于最后的sigmoid函数,我们可以进行如下计算:

y ^ = σ ( ∑ k = 1 N w i ∣ f ( x ( i ) ) k − f ( x ( j ) ) k ∣ + b ) \hat y = \sigma(\sum\limits_{k=1}^{N} w_{i}|f(x^{(i)})_{k} - f(x^{(j)})_{k} | + b) y^=σ(k=1Nwif(x(i))kf(x(j))k+b)

其中, f ( x ( i ) ) f(x^{(i)}) f(x(i))代表图片 x ( i ) x^{(i)} x(i)的编码,下标 k k k代表选择N维编码向量中的第 k k k个元素。

我们以两个图片编码向量对应元素之间的差值作为特征输入到logistic regression 的单元中,增加参数 w i w_{i} wi b b b,通过训练得到合适的参数权重和偏置,进而判断两张图片是否为同一个人。

同时输入逻辑回归单元的特征可以进行更改,如还可以是:
( f ( x ( i ) ) k − f ( x ( j ) ) k ) 2 f ( x ( i ) ) k + f ( x ( j ) ) k \dfrac{(f(x^{(i)})_{k} - f(x^{(j)})_{k})^{2}}{f(x^{(i)})_{k} + f(x^{(j)})_{k}} f(x(i))k+f(x(j))k(f(x(i))kf(x(j))k)2

上式也被称为 χ \chi χ 方公式,有时也称为 χ \chi χ 方相似度。

在实际的人脸验证系统中,我们可以对数据库的人脸图片进行预计算,存储卷积网络得到的编码。当有图片进行识别时,运用卷积网络计算新图片的编码,与预计算保存好的编码输入到逻辑回归单元中进行预测。这样可以提高我们系统预测的效率,节省计算时间。

总结:
利用Siamese 网络,我们可以将人脸验证当作一个监督学习,创建成对的训练集和是否同一个人的输出标签。

还在路上,稍等...

我们利用不同的图片对,使用反向传播的算法对Siamese网络进行训练,进而得到人脸验证系统。

Part 2:神经风格迁移

6. 深度网络学习内容可视化

如何可视化:

假设我们训练了一个卷积神经网络如下所示:

还在路上,稍等...

我们希望看到不同层的隐藏单元的计算结果。依次对各个层进行如下操作:

  • 在当前层挑选一个隐藏单元;
  • 遍历训练集,找到最大化地激活了该运算单元的图片或者图片块;
  • 对该层的其他运算单元执行操作。

对于在第一层的隐藏单元中,其只能看到卷积网络的小部分内容,也就是最后我们找到的那些最大化激活第一层隐层单元的是一些小的图片块。我们可以理解为第一层的神经单元通常会寻找一些简单的特征,如边缘或者颜色阴影等。

各层网络可视化:

还在路上,稍等...

对于卷积网络的各层单元,随着网络深度的增加,隐藏层计算单元随着层数的增加,从简单的事物逐渐到更加复杂的事物。

7. 神经风格迁移代价函数

代价函数:

为了实现神经风格迁移,我们需要为生成的图片定义一个代价函数。

对于神经风格迁移,我们的目标是由内容图片C和风格图片S,生成最终的风格迁移图片G:

还在路上,稍等...

所以为了实现神经风格迁移,我们需要定义关于G的代价函数J,以用来评判生成图片的好坏:

J ( G ) = α J c o n t e n t ( C , G ) + β J s t y l e ( S , G ) J(G) = \alpha J_{content}(C, G) + \beta J_{style}(S,G) J(G)=αJcontent(C,G)+βJstyle(S,G)

其中

  • $J_{content}(C, G) $代表生成图片G的内容和内容图片C的内容的相似度;
  • $ J_{style}(S,G)$ 代表生成图片G的内容和风格图片S的内容的相似度;
  • α 、 β \alpha、\beta αβ两个超参数用来表示以上两者之间的权重。

执行过程:

  • 随机初始化生成图片G,如大小为 100 × 100 × 3 100\times100\times3 100×100×3
  • 使用梯度下降算法最小化上面定义的代价函数 J(G), G : = G − ∂ ∂ G J ( G ) G:= G - \dfrac{\partial}{\partial G}J(G) G=GGJ(G)
还在路上,稍等...

对于上图的内容图片C和风格图片S,通过梯度下降算法一次次的徐训练,我们可以由初始的噪声图片得到最终的风格迁移图片G。

8. 内容代价函数(Content cost)

  • 假设我们使用隐藏层 l l l 来计算内容代价。(如果选择的 l l l 太小,那么代价函数就会使得我们的生成图片G在像素上非常接近内容图片;然而用很深的网络,那么生成图片G中就会产生与内容图片中所拥有的物体。所以对于 l l l 一般选在网络的中间层,既不深也不浅);
  • 使用一个预训练的卷积网络。(如,VGG或其他);
  • a [ l ] ( C ) a^{[l](C)} a[l](C) a [ l ] ( G ) a^{[l](G)} a[l](G)分别代表内容图片C和生成图片G的 l l l 层的激活值;
  • 如果 a [ l ] ( C ) a^{[l](C)} a[l](C) a [ l ] ( G ) a^{[l](G)} a[l](G)相似,那么两张图片就有相似的内容;

定义内容代价函数如下:

J c o n t e n t ( C , G ) = 1 2 ∣ ∣ a [ l ] ( C ) − a [ l ] ( G ) ∣ ∣ 2 J_{content}(C, G) = \dfrac{1}{2}||a^{[l](C)} - a^{[l](G)} ||^{2} Jcontent(C,G)=21a[l](C)a[l](G)2

在对代价函数运行梯度下降算法时,会激励这里的内容代价函数,努力使得生成图片G隐含层 l l l 的激活值和内容图片C隐含层 l l l 的激活值相似。

9. 风格代价函数(Style cost)

“Style”的含义:

对于一个卷积网络中,我们选择网络的中间层 l l l, 定义“Style”表示 l l l 层的各个通道激活项之间的相关性。

还在路上,稍等...

相关性大小的度量:

还在路上,稍等...

上面是我们选出的 l l l层的激活项,对于不同的通道值,代表不同的神经元所学习到的特征,这里假如红色的通道可以找到图片中含有垂直纹理特征的区域,黄色通道可以找出橙色的区域。

而相关性大小的含义就是,如假设中,图片出现垂直纹理特征的区域显示橙色可能的大小。

我们将相关系数应用到风格图片S和生成图片G的对应通道上,就可以度量风格图片和生成图片的相似度。

Style 矩阵:

  • a i , j , k [ l ] a^{[l]}_{i,j,k} ai,j,k[l]表示在(i,j,k)位置的激活值,其中i、j、k分别代表激活值的高、宽、通道;
  • G [ l ] G^{[l]} G[l]是一个 n c l × n c l n_{c}^{l}\times n_{c}^{l} ncl×ncl大小的矩阵:
    G k k ′ [ l ] ( S ) = ∑ i = 1 n h [ l ] ∑ j = 1 n w [ l ] a i , j , k [ l ] ( S ) a i , j , k ′ [ l ] ( S ) G^{[l](S)}_{kk'} = \sum\limits_{i=1}^{n_{h}^{[l]}}\sum\limits_{j=1}^{n_{w}^{[l]}}a^{[l](S)}_{i,j,k}a^{[l](S)}_{i,j,k'} Gkk[l](S)=i=1nh[l]j=1nw[l]ai,j,k[l](S)ai,j,k[l](S)
    G k k ′ [ l ] ( G ) = ∑ i = 1 n h [ l ] ∑ j = 1 n w [ l ] a i , j , k [ l ] ( G ) a i , j , k ′ [ l ] ( G ) G^{[l](G)}_{kk'} = \sum\limits_{i=1}^{n_{h}^{[l]}}\sum\limits_{j=1}^{n_{w}^{[l]}}a^{[l](G)}_{i,j,k}a^{[l](G)}_{i,j,k'} Gkk[l](G)=i=1nh[l]j=1nw[l]ai,j,k[l](G)ai,j,k[l](G)
    上面的矩阵在线性代数中又称为Gram 矩阵,这里称为风格矩阵。

代价函数:

J s t y l e [ l ] ( S , G ) = 1 2 n h [ l ] n w [ l ] n c [ l ] ∣ ∣ G [ l ] ( S ) − G [ l ] ( G ) ∣ ∣ F 2 = 1 2 n h [ l ] n w [ l ] n c [ l ] ∑ k ∑ k ′ ( G k k ′ [ l ] ( S ) − G k k ′ [ l ] ( G ) ) 2 J^{[l]}_{style}(S, G) = \dfrac{1}{2n^{[l]}_{h}n^{[l]}_{w}n^{[l]}_{c}}||G^{[l](S)} - G^{[l](G)} ||^{2}_{F} = \dfrac{1}{2n^{[l]}_{h}n^{[l]}_{w}n^{[l]}_{c}}\sum_{k}\sum_{k'}(G^{[l](S)}_{kk'} - G^{[l](G)}_{kk'})^{2} Jstyle[l](S,G)=2nh[l]nw[l]nc[l]1G[l](S)G[l](G)F2=2nh[l]nw[l]nc[l]1kk(Gkk[l](S)Gkk[l](G))2

内容代价函数和风格代价函数前面的归一化可以加也可以不加,因为总体的代价函数前面有权重系数。

如果对各层都使用风格代价函数,那么会让结果变得更好:

J s t y l e ( S , G ) = ∑ l λ [ l ] J s t y l e [ l ] ( S , G ) J_{style}(S,G) = \sum_{l}\lambda^{[l]}J_{style}^{[l]}(S,G) Jstyle(S,G)=lλ[l]Jstyle[l](S,G)

9. 1D to 3D 卷积

在我们上面学过的卷积中,多数是对图形应用2D的卷积运算。同时,我们所应用的卷积运算还可以推广到1D和3D的情况。

2D和1D卷积:

还在路上,稍等...
  • 2D卷积: 14 × 14 × 3 ∗ 5 × 5 × 3 — — > 10 × 10 × n c 14\times14\times3* 5\times5\times3 ——>10\times10\times n_{c} 14×14×35×5×3>10×10×nc
  • 1D卷积: 14 × 1 ∗ 5 × 1 — — > 10 × n c 14\times1* 5\times1 ——>10\times n_{c} 14×15×1>10×nc

3D卷积:

还在路上,稍等...
  • 3D卷积: 14 × 14 × 14 × 1 ∗ 5 × 5 × 5 × 1 — — > 10 × 10 × 10 × n c 14\times14\times14\times1 * 5\times5\times5\times1——>10\times10\times10\times n_{c} 14×14×14×15×5×5×1>10×10×10×nc
  • 3D数据:如医疗CT扫描中的即可产生身体的3D模型;电影切片也属于3D数据。

本周(Week4)的课后编程作业请参见:

吴恩达Coursera深度学习课程 DeepLearning.ai 编程作业(4-4)

  • 15
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 4
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值