机器视觉的情感判断实践(From Pixels to Sentiment: Fine-tuning CNNs for Visual Sentiment Prediction)

  看到了2017年的一篇文章From Pixels to Sentiment: Fine-tuning CNNs for Visual Sentiment Prediction,对于其里面的视觉中的情感判断,感觉非常有价值,于是就直接利用其提供好的模型进行了测试,感觉效果还是不错。

与传统的文本情感判断一样,机器情感的判断基础框架也是一样,对一张图像给个0,1这样的值,然后进行训练。



如给出的的train数据集的组织格式也是:图像,情感标签(0,1)


其中训练数据集采用的是:https://www.cs.rochester.edu/u/qyou/DeepSent/deepsentiment.html提供的DeepSent数据集。


看了下基本原理,作者主要利用了CaffeNet来作为图像情感分析的基础框架,改进主要如下:

(1)对最后一层进行了改进,即将原始的全联接层修改为两个部分,如下:

the original fully-connectedfc8 layer from CaffeNet is replaced by a two-neuronlayer, fc8 twitter, representing positive and negativesentiment. The weights in this new layer are initializedfrom a zero-mean Gaussian distribution with standarddeviation 0.01 and zero bias.

(2)因为无法描述最后一层对结果的贡献,可以对后面几层都进行实验测试,wherein the last or the two last fully-connectedlayers are removed, denoted as fc6-2 and fc7-2, respectively.


实验测试:主要参照:https://github.com/imatge-upc/sentiment-2017-imavis


下载图像数据集,实践步骤包括两步,一是生成情感语义图,以NPY数据结尾,二是合成情感图片,以图片显示。


其中一些图片的显示效果如下:一般绿的代表正面,红的代表负面。









Bert是一种在自然语言处理中被广泛使用的模型,其在各种任务中表现出了出色的性能。然而,对于方面级情感分析,Bert并不直接适用。因此,需要对Bert进行利用,并通过修改和扩展来适应这一任务。 端到端(end-to-end)的方面级情感分析是指通过一个模型直接从文本中提取方面和情感信息。为了利用Bert进行端到端的方面级情感分析,首先需要对数据进行预处理,并将其转换成Bert模型所接受的输入格式。这包括将文本分段、添加特殊标记以及填充序列等操作。 在Bert模型的基础上,需要添加相关的层来实现方面级情感分析。一种常见的方法是利用注意力机制来捕获方面词与其他词之间的关系。通过计算不同词之间的注意力权重,可以将方面词的相关信息传递给其他词,从而更好地理解整个文本。另外,也可以添加一些分类层来预测每个方面的情感。 为了更好地利用Bert,还可以使用领域特定的语料库来进行预训练。通过在大规模的语料库上进行预训练,模型可以更好地理解特定领域的文本,并提升方面级情感分析的性能。 此外,还可以通过调整Bert模型的超参数来进一步改善性能。例如,可以调整学习率、批大小和训练周期等超参数,以获得更好的结果。 总之,“exploiting bert for end-to-end aspect-based sentiment analysis”意味着通过对Bert进行修改和扩展,将其应用于端到端的方面级情感分析任务中,以提升模型的性能和效果。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值