使用PyTorch进行情侣幸福度测试指南

点击上方“小白学视觉”,选择加"星标"或“置顶

重磅干货,第一时间送达c04cf1037ddfdf88590898ba12b25a3b.png

5dba43822a63e60ecea1b3045a974317.png
DeepConnection模型框架

计算机视觉--图像和视频数据分析是深度学习目前最火的应用领域之一。因此,在学习深度学习的同时尝试运用某些计算机视觉技术做些有趣的事情会很有意思,也会让你发现些令人吃惊的事实。长话短说,我的搭档(Maximiliane Uhlich)和我决定将深度学习应用于浪漫情侣的形象分类上,因为Maximiliane是一位关系研究员和情感治疗师。具体来说,我们想知道我们是否可以准确地判断图像或视频中描绘的情侣是否对他们的关系感到满意?事实证明,我们可以!我们的最终模型(我们称之为DeepConnection)分类准确率接近97%,能够准确地区分幸福与不幸福的情侣。大家可以在我们的论文预览链接[1]里阅读完整介绍,上图是我们为这个任务设计的框架草图。

在数据集收集方面,我们使用这个Python脚本[2]进行网页数据抽取(webscraping)来获取幸福和不幸福的情侣数据。最后,我们整理出了大约包含1000张图像的训练集。这并不是特别多,所以我们使用数据增强与迁移学习来增强我们模型在数据集上的表现。数据增强--图像方向的微小变化,色调和色彩强度以及许多其他因素都会增强模型的泛化能力,从而避免学习一些不相关信息。例如,如果数据中幸福夫妻的图像平均比不幸福夫妻的图像更亮,我们并不希望我们的模型映射这种关联。我们使用了强大的ImgAug库[3]进行了相当多策略的数据扩充,以确保我们模型的鲁棒性。基本上对于每个批次的每个图像,我们都至少应用多种数据增强技术。下图是一张图片应用了48种数据增强策略的示例。

9cb6f79cdc9985fa028152fd41dc5955.png
图像增强后数据示例

我们决定使用ResNet模型作为DeepConnection的基础网络,在大型数据集ImageNet上预先训练。通过预训练,模型已经具有了一定的识别能力。我们所有的模型都借用PyTorch实现,我们使用Google Colab上的免费GPU资源进行训练和测试。这个基础模型本身已经具备了良好的分类能力,但我们决定更进一步,用空间金字塔池化层(SPP)[4] 替换ResNet-34基础模型的最后一个自适应池模块。这里,处理后的图像数据被分成不同数量的正方形,并且仅传递最大值以进行进一步分析(最大池化)。这使得模型可以专注于重要的特征,使其对不同大小的图像具有鲁棒性,并且不受图像扰动的影响。之后,我们放置了一个均值变换(PMT)层[5],用数学函数转换数据以引入非线性,使得DeepConnection可以从数据中捕获更复杂的关系。这两个模块均提高了我们的分类准确度,我们在单独的验证集上得到了大约97%准确率。SPP / PMT和后续分类层的代码如下所示:

1class SPP(nn.Module):
 2  def __init__(self):
 3    super(SPP, self).__init__()
 4
 5    ## features incoming from ResNet-34 (after SPP/PMT)
 6    self.lin1 = nn.Linear(2*43520, 100)
 7
 8    self.relu = nn.ReLU()
 9    self.bn1 = nn.BatchNorm1d(100)
10    self.dp1 = nn.Dropout(0.5)
11    self.lin2 = nn.Linear(100, 2)
12
13  def forward(self, x):
14    # SPP
15    x = spatial_pyramid_pool(x, x.shape[0], [x.shape[2], x.shape[3]], [8, 4, 2, 1])
16
17    # PMT
18    x_1 = torch.sign(x)*torch.log(1 + abs(x))
19    x_2 = torch.sign(x)*(torch.log(1 + abs(x)))**2
20    x = torch.cat((x_1, x_2), dim = 1)
21
22    # fully connected classification part
23    x = self.lin1(x)
24    x = self.bn1(self.relu(x))
25
26    #1
27    x1 = self.lin2(self.dp1(x))
28    #2
29    x2 = self.lin2(self.dp1(x))
30    #3
31    x3 = self.lin2(self.dp1(x))
32    #4
33    x4 = self.lin2(self.dp1(x))
34    #5
35    x5 = self.lin2(self.dp1(x))
36    #6
37    x6 = self.lin2(self.dp1(x))
38    #7
39    x7 = self.lin2(self.dp1(x))
40    #8
41    x8 = self.lin2(self.dp1(x))
42
43    x = torch.mean(torch.stack([x1, x2, x3, x4, x5, x6, x7, x8]), dim = 0)
44
45    return x

仔细观察代码可以看出,最终分类层上有八个变种。看似浪费了算力实际上恰恰相反。这个概念是最近提出的,叫做multi-sample dropout(多样本随机丢弃),它在训练期间显着加速了收敛[6]。它基本上是防止模型学习虚假关系(过度拟合)和试图不丢弃丢失掩码中的信息之间的折衷。

我们在项目中对这个方法进行了其他一些调整优化,具体参看我们在GitHub放出的项目代码[7]以获取更多信息。简单地提一下:我们使用混合精度(使用Apex库[8]实现)训练模型,以大大降低内存使用率,使用早停(earlystopping)来防止过度拟合,并根据余弦函数进行学习率退火。

在达到令人满意的分类准确度(具有相应高的召回率和精确度)后,我们想知道我们是否可以从DeepConnection执行的分类中学到一些东西。因此,我们尝试模型解释性探索并使用梯度加权类激活映射技术(Grad-CAM)进行分析[9]。基本地,Grad-CAM获取最终卷积层的输入梯度以确定显著区域,其可以被视为原始图像之上的上采样热图。具体实现与可视化结果如下:

ff94cb4845328083d81fc07fec666d16.png
热度图对比
1## from https://github.com/eclique/pytorch-gradcam/blob/master/gradcam.ipynb
 2
 3def GradCAM(img, c, features_fn, classifier_fn):
 4    feats = modulelist_conv(img.cuda().half())
 5    feats = feats.cuda()
 6    _, N, H, W = feats.size()
 7
 8    out = modulelist_fc(feats)
 9    c_score = out[0, c]
10    grads = torch.autograd.grad(c_score, feats)
11    w = grads[0][0].mean(-1).mean(-1)
12
13    sal = torch.matmul(w, feats.view(N, H*W))
14    sal = sal.view(H, W).cpu().detach().numpy()
15    sal = np.maximum(sal, 0)
16
17    return sal

我们在论文中对此进行了进一步讨论,并将其嵌入到了现有的心理学研究中,但DeepConnection似乎主要关注面部区域。从研究的角度来看,这很有意义,因为面部表情会传达沟通和情感。除了Grad-CAM获得的视觉感知之外,我们还想看看我们是否可以通过模型解释得出实际特征。为此,我们创建了激活状态图,以显示最终分类层的哪些神经元被哪些给定图像区域激活。

2aa7c964a07e76841a60590f52fc3532.png
不同幸福程度代表性激活状态图

与其他模型相比,DeepConnection还学习到了代表不幸福的特征,并不仅仅将缺乏代表幸福的特征的分类为不幸福。但是,我们需要进一步的研究才能将这些特征实际映射到人类行为可解释性方面。我们还尝试过在未知的情侣视频帧上使用DeepConnection,效果非常好。

总体而言,该模型的稳健性是其强大优势之一。准确的分类同样适用于同性恋伴侣不同肤色人种除情侣外包含其他人的视频帧中不能完整显示情侣人脸的视频帧中等等。对于图像中存在其他人的情况,DeepConnection甚至可以识别其他人是否感到满意,但仍然将其预测集中在这对情侣身上。

除了进一步的模型解释之外,下一步的工作将是使用更大的训练数据集,从而训练更复杂的模型。使用DeepConnection作为情侣治疗师的助手将会很有意思,可以在会话期间或之后对情侣的当前关系状态进行实时反馈。此外,我建议您与女票/男票一起输入你们的合照,看看DeepConnection对你们的关系有何看法!希望这会是一个好的开始!

1: https://psyarxiv.com/df25j/
2: https://github.com/Bribak/DeepConnection
3: https://github.com/aleju/imgaug
4: https://arxiv.org/abs/1406.4729
5: https://www.sciencedirect.com/science/article/pii/S0031320318304503
6: https://arxiv.org/abs/1905.09788
7: https://github.com/Bribak/DeepConnection
8: https://github.com/NVIDIA/apex
9: https://arxiv.org/abs/1610.02391

下载1:OpenCV-Contrib扩展模块中文版教程

在「小白学视觉」公众号后台回复:扩展模块中文教程即可下载全网第一份OpenCV扩展模块教程中文版,涵盖扩展模块安装、SFM算法、立体视觉、目标跟踪、生物视觉、超分辨率处理等二十多章内容。

下载2:Python视觉实战项目52讲

在「小白学视觉」公众号后台回复:Python视觉实战项目即可下载包括图像分割、口罩检测、车道线检测、车辆计数、添加眼线、车牌识别、字符识别、情绪检测、文本内容提取、面部识别等31个视觉实战项目,助力快速学校计算机视觉。

下载3:OpenCV实战项目20讲

在「小白学视觉」公众号后台回复:OpenCV实战项目20讲即可下载含有20个基于OpenCV实现20个实战项目,实现OpenCV学习进阶。

交流群

欢迎加入公众号读者群一起和同行交流,目前有SLAM、三维视觉、传感器、自动驾驶、计算摄影、检测、分割、识别、医学影像、GAN、算法竞赛等微信群(以后会逐渐细分),请扫描下面微信号加群,备注:”昵称+学校/公司+研究方向“,例如:”张三 + 上海交大 + 视觉SLAM“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进入相关微信群。请勿在群内发送广告,否则会请出群,谢谢理解~

1859cf90c3af88394b1a14e5c709ee3c.png

6623dc5995ddfccd7a87192f18703a74.png

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值