自然语言处理(NLP):10 基于WordAVGModel 增加Attention机制情感分析

本文介绍了如何使用WordAVGModel进行情感分析,并结合Attention机制改进模型。通过电影评论数据集进行预处理,利用torchtext进行数据加载和处理。在模型训练中,使用BCEWithLogitsLoss损失函数和Adam优化器,通过分析词向量的L2 norm发现情感相关性强的单词。接着引入Attention机制,分析词向量与attention向量的余弦相似度,发现情感相关单词的Attention权重分布特点。
摘要由CSDN通过智能技术生成

电影评论数据集进行情感分析

  • 通过torchtext 数据预处理
  • 定义WordAVGModel
  • 引入Attention加权平均机制(参考transformer中attention中dot product实现机制,这里 cosine_similarity 计算attention)
  • 二分类任务 BCEWithLogitsLoss 计算损失,通过Adam算法优化参数
  • 模型训练过程引入Mask 来对padding的数据进行处理
  • 模型训练过程权重参数的初始化设置,实验证明可能会影响模型收敛速度
  • 效果分析

导入库

import torch
import torch.nn as nn

import pandas as pd
import numpy as</
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

艾文教编程

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值