机器视觉的情感判断实践(From Pixels to Sentiment: Fine-tuning CNNs for Visual Sentiment Prediction)

  看到了2017年的一篇文章From Pixels to Sentiment: Fine-tuning CNNs for Visual Sentiment Prediction,对于其里面的视觉中的情感判断,感觉非常有价值,于是就直接利用其提供好的模型进行了测试,感觉效果还是不错。

与传统的文本情感判断一样,机器情感的判断基础框架也是一样,对一张图像给个0,1这样的值,然后进行训练。



如给出的的train数据集的组织格式也是:图像,情感标签(0,1)


其中训练数据集采用的是:https://www.cs.rochester.edu/u/qyou/DeepSent/deepsentiment.html提供的DeepSent数据集。


看了下基本原理,作者主要利用了CaffeNet来作为图像情感分析的基础框架,改进主要如下:

(1)对最后一层进行了改进,即将原始的全联接层修改为两个部分,如下:

the original fully-connectedfc8 layer from CaffeNet is replaced by a two-neuronlayer, fc8 twitter, representing positive and negativesentiment. The weights in this new layer are initializedfrom a zero-mean Gaussian distribution with standarddeviation 0.01 and zero bias.

(2)因为无法描述最后一层对结果的贡献,可以对后面几层都进行实验测试,wherein the last or the two last fully-connectedlayers are removed, denoted as fc6-2 and fc7-2, respectively.


实验测试:主要参照:https://github.com/imatge-upc/sentiment-2017-imavis


下载图像数据集,实践步骤包括两步,一是生成情感语义图,以NPY数据结尾,二是合成情感图片,以图片显示。


其中一些图片的显示效果如下:一般绿的代表正面,红的代表负面。









  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值