整理并翻译自吴恩达深度学习视频,卷及神经网络第四章4.1-4.5,有所详略。
人脸验证和人脸识别
Verification与Recognition的差异:
验证:
- 输入图像,名字/ID
- 输出输入的图像是否和输入的名字/ID是同一个人
这是个1:1问题。
识别:
- 你有一个K个人的数据库
- 获取一张图像作为输入
- 如果它属于K个人之一,输出这张图像对应的ID(不属于任何一个,输出不能识别)
这是个1:100问题,需要更高的准确度保证不会出错以满足我们对准确性的要求(Maybe need more than 99.9 % accuracy)。
One-Shot学习
One shot, one kill - war3暗夜精灵族弓箭手语音。
意思很直观,你需要在仅有一个example作为输入的情况下给出正确的结果。
如果按之前我们对网络的训练方式,我们不能训练出一个足够健壮的网络因为输入实在是太少了。
而且每次如果有新人加入的团队,你不能总得重新训练你的网络,这显然不是一个好的方法。
相似度 函数
因此我们将学习的目标更改为学习两张图片之间的的差异程度。
I
f
d
(
i
m
g
1
,
i
m
g
2
)
≤
τ
If \ d(img1, img2) \leq \tau
If d(img1,img2)≤τ “same”
I
f
d
(
i
m
g
1
,
i
m
g
2
)
>
τ
If \ d(img1, img2) > \tau
If d(img1,img2)>τ “different”
小于等于某个阀值,判定是同一个人;否则判定不是同一个人。
我个人觉得叫差异度函数更合适。这篇博文后面就使用差异度函数了。
Siamese network
The job of function d which you learned about last video is to input two faces and tell you how similar or how different they are, a good way to this is to use aSiamese Network
去掉普通卷积网络全连接层之后的输出层,我们把输入经过卷积网络之后得到的128维的vector作为输入x的编码。我们就得到了一个Siamese网络。
把两张图像经过网络得到的vector记为f(x1)和f(x2),定义差异度函数为
∣
∣
f
(
x
(
i
)
−
f
(
x
(
j
)
)
∣
∣
2
||f(x^{(i)}-f(x^{(j)})||^2
∣∣f(x(i)−f(x(j))∣∣2
如果是同一个人,那么该函数应当很小;如果不是同一个人,那么该函数应该很大。我们学习的目标就是学习到一组parameter,这组parameter能够使得该函数实现同一个人时其值很小,不是同一个人时其值很大的。
三元组损失(TripletLoss)
One way to learn the parameters of the neural network so that it gives you a good encoding for your pictures of faces is to define and apply gradient descent on the
triplet loss function
更科学的方法:我们定义学习目标为三元组(A, P, N)之间的组合公式(过程如上图):
∣
∣
f
(
A
)
−
f
(
P
)
∣
∣
2
−
∣
∣
f
(
A
)
−
f
(
N
)
∣
∣
2
+
α
≤
0
||f(A)-f(P)||^2 - ||f(A)-f(N)||^2 + \alpha \leq 0
∣∣f(A)−f(P)∣∣2−∣∣f(A)−f(N)∣∣2+α≤0
其中,A代表Anchor即输入的一个图像,P代表Positive,即正例,N代表Negative,即反例。
α
\alpha
α即为SVM里面的margin。
对上述公式和0之间取max,作为我们的损失函数:
l
(
A
,
P
,
N
)
=
m
a
x
(
∣
∣
f
(
A
)
−
f
(
P
)
∣
∣
2
−
∣
∣
f
(
A
)
−
f
(
N
)
∣
∣
2
+
α
,
0
)
l(A,P,N)=max(||f(A)-f(P)||^2 - ||f(A)-f(N)||^2 + \alpha,\ 0)
l(A,P,N)=max(∣∣f(A)−f(P)∣∣2−∣∣f(A)−f(N)∣∣2+α, 0)
损失函数衡量的是不对的情况,因此它是训练目标取反。上式的意义的在于
α
\alpha
α是个大于0的定值,因此
∣
∣
f
(
A
)
−
f
(
P
)
∣
∣
2
−
∣
∣
f
(
A
)
−
f
(
N
)
∣
∣
2
||f(A)-f(P)||^2 - ||f(A)-f(N)||^2
∣∣f(A)−f(P)∣∣2−∣∣f(A)−f(N)∣∣2取较大的值时,表示我们的损失也很大。
整个训练集上的损失函数即为:
J
=
∑
1
m
l
(
A
(
i
)
,
P
(
i
)
,
N
(
i
)
)
J=\sum_1^ml(A^{(i)},\ P^{(i)},\ N^{(i)})
J=1∑ml(A(i), P(i), N(i))
在训练数据三元组的选取上,我们选"难"训练的三元组收益更大,"难"直观上的理解是,
d
(
A
,
P
)
+
α
d(A,P)+\alpha
d(A,P)+α很大,
d
(
A
,
N
)
d(A,N)
d(A,N)很小,这样使得算法必须竭尽全力地学习到使
d
(
A
,
P
)
+
α
d(A,P)+\alpha
d(A,P)+α变小,同时使
d
(
A
,
N
)
d(A,N)
d(A,N)变大的parameter,这提高了算法的计算效率。
人脸识别与二元分类
将人脸识别看作二元分类是三元组损失的另外一种替代方案。
我们使用2个Siamese网络得到2张输入图像的2个vector,取这2个vector作为logistic regression的输入,如果2张图像输入同一个人,那么logistics regression应该输出1(或者大于某个阀值),否则输出0。基于此收集训练数据(或者小于某个阀值)。
假设logistic regerssion使用
σ
\sigma
σ函数,那么输出
y
=
σ
(
∑
k
=
1
128
w
i
∣
f
(
x
k
(
i
)
)
−
x
k
(
j
)
)
∣
+
b
)
y=\sigma (\sum_{k=1}^{128}w_i \ | f(x_k^{(i)})-x_k^{(j)})|+b)
y=σ(k=1∑128wi ∣f(xk(i))−xk(j))∣+b)
如同普通的逻辑回归一样,你训练网络,得到 w i w_i wi和 b b b,然后使用这些参数去判断给定的2张图片是否是同一个人。
一个实际部署的小trick是,你可以预先计算数据库出里员工的图像的vector然后存储起来,这样可以节省大量的计算资源,加快你整个系统的响应速度。
将人脸识别看作二元分类监督问题,你使用一组图像当做输入,输出1或者0如上图所示。