【传知代码】针对股票评论的情感分类器(论文复现)

前言:当谈到投资和股票市场时,情感起着重要的作用。每天,无数的投资者和分析师都对股票进行评论和预测,试图捕捉市场情绪和趋势。但是,如何准确地理解这些评论中的情感,成为了一个具有挑战性的问题。然而,针对股票评论的情感分类器并非只是简单地将文本进行分类。它需要克服许多挑战,如处理文本中的主观性和语义复杂性,适应不同的市场环境和语言风格,以及应对信息的不确定性等。这使得研究者们不断探索新的方法和模型,致力于提高分类器的准确性和鲁棒性。

本文所涉及所有资源均在传知代码平台可获取

目录

概述

演示效果

核心代码

写在最后


概述

        Transformer模型因其出色的表征学习能力,能够在大量的文本数据上进行预先的训练,并展现出广泛的适用性。因此,Transformer模型在自然语言处理领域得到了广泛的应用,并在各种任务中,包括情感分析,都展现出了卓越的性能。在这篇文章中,我们采用了股票市场上股民的评论数据作为训练数据。投资者的情绪和情感对股票市场有着显著的影响。通过对这些股票评论进行深入的情感分析,分析师和投资者可以更准确地掌握市场参与者的情绪状况,进而更好地预测市场的未来走向;此外,通过分析股市中股票评论的情感特征,还可以发现某些股票可能存在的风险,并做出正确决策。此外,对股票评估进行情感分析可以协助企业和投资者更好地跟踪公众舆论,帮助他们更深入地了解市场参与者的情感和观点,从而为投资决策提供有力的参考依据,如下:

演示效果

大家都知道Transformer模型包括encoder与decoder两个部分,这两个模型分别担负了不同的职能与角色。

Encoder:负责将输入序列(比如文本)转换为一系列隐藏表示,捕获输入序列中的信息和特征。每一个输入词语在embedding层输入encoder之后,再由多层自注意力机制与前馈神经网络对其特征提取与编码,最后获得输入序列表达。

Decoder:负责使用encoder生成的表示来预测输出序列(例如,机器翻译的翻译结果)。

和encoder不一样,decoder对每一个位置进行处理都要用到encoder的输出信息,并有附加掩码机制以保证预测过程中不用到将来信息。

        在进行情感分析时,Transformer模型通常基于已有的Transformer模型进行细微的调整或修正,这样做主要是为了更好地满足情感分析任务的独特性和实际需求。情感分析任务通常需要对输入文本做一些加工,比如增加特殊标记或者截断等,来满足模型输入需求。另外,还可能在录入文本之前和之后加上特殊标记以表示情感分析任务的执行。而模型的输出是对结果的三分类(或者二分类)结果。为了将文本数据转换为可投入到模型的训练数据集就必须根据当前现有股评文本来构造本地可利用词典并且将文本序列转换为一系列具有相同长度的词向量如下图所示:

对应到代码中则可以分成下面几个步骤:
1)将句中字母小写,情感标签映射到【0,1,2】列表中
2)去除特殊字符
3)去除停用词,这需要导入包含英文停用词的数据包
4)将单词进行词性还原
5)将单词与数字一一对应,实现句子转向量 

df.text_sentiment.unique() 
df.drop_duplicates(inplace=True) ### 删除重复值 
pd.factorize(df.text_sentiment) ### 0:Neutral 1:Negative 2:Positive

### 将情感标签映射为【0,1,2】

label  = pd.factorize(df.text_sentiment)[0]

### 全部变为小写字母,不保留除’之外标点符号,去除特殊字符
pat = re.compile('[A-Za-z\']+')

def pre_text(text):
    text = pat.findall(text) ### 返回列表
    text = [w.lower() for w in text]
    return text
x = df.text.apply(pre_text) 

### 去除停用词
def stop_words_filter(text):                        
    text= [w for w in text if w not in stopwords.words('english') ]
    return text 
x = x.apply(stop_words_filter) 

### 词形还原,利用wordnet
wnl = WordNetLemmatizer() 
def return_words(text):
    text = [wnl.lemmatize(w) for w in text]
    return text  
for text in x:
    text = [return_words(text)] 

### 创建词表,将每个词映射到词表上
word_set = set()
for t in x:
    for word in t:
        word_set.add(word)
max_word = len(word_set)+2   ### 词表总长+2, 留下unknow和padding,后面万一进入与这些词不同的词就映射到unk上,序列padding的部分就映射到pad上

word_list = list(word_set)
word_index = dict((w,word_list.index(w)+1) for w in word_list)
x = x.apply(lambda t:[word_index.get(w) for w in t])   


###统一向量长度,将每句话padding为长度相同的列表
maxlen = max(len(t) for t in x) 
pad_x = [t+ (maxlen-len(t))*[0] for t in x]  
pad_x = np.array(pad_x) 
# 将 ndarray 转换为 DataFrame
df_pad_x = pd.DataFrame(pad_x)
df_label = pd.DataFrame(label, columns=['label'])  
df_pad_x_reset = df_pad_x.reset_index(drop=True) 
df_label_reset = df_label.reset_index(drop=True) 
df_output = pd.concat([df_pad_x_reset, df_label_reset],axis=1)     

#保存数据
df_output.to_csv('df_output.csv', index=False)

核心代码

        得到向量化的训练数据后,我们对应上面的Transformer结构图中左半部分的encoder编码器,我们构建了一个主体由encoder与softmax分类器组成的Transformer情感分类器,代码如下:

import torch
import torch.nn as nn

#参数配置
embed_dim =37411   # 字 Embedding 的维度
d_model=256
d_ff = 1024     # 前向传播隐藏层维度
d_k = d_v = 64  # K(=Q), V的维度
n_layers = 3    # 有多少个encoder
n_heads =  4    # Multi-Head Attention设置为8
seq_len=54
batch_size=64
src_vocab_size=37411
tgt_vocab_size=3
dropout=0.1

                               #te 和 pe 都是形状为 (batch_size, seq_len, embed_dim) 的张量
class PositionalEncoding(nn.Module):      #nn.Module是一个用于构建神经网络模型的基类
    def __init__(self):
        super(PositionalEncoding, self).__init__()
        self.d_model=d_model
        self.seq_len=seq_len
        self.dropout = nn.Dropout(p=dropout)
        pos_table = np.array([
            [pos / np.power(10000, 2 * i / d_model) for i in range(d_model)]
            if pos != 0 else np.zeros(d_model) for pos in range(seq_len)])
        pos_table[1:, 0::2] = np.sin(pos_table[1:, 0::2])           # 字嵌入维度为偶数时
        pos_table[1:, 1::2] = np.cos(pos_table[1:, 1::2])           # 字嵌入维度为奇数时
        self.pos_table = torch.LongTensor(pos_table).to(device)
    def forward(self, enc_inputs):                                  # enc_inputs: [batch_size, seq_len, d_model]   32*54*100
        #enc_inputs = torch.from_numpy(enc_inputs).to(torch.int64)  # 转换为LongTensor类型 

        enc_inputs += self.pos_table[:enc_inputs.size(1), :]     #self.pos_table[:54, :]
        return self.dropout(enc_inputs.to(device))                  #[batch_size, seq_len, d_model]                32*54*100
    
    
def get_attn_pad_mask(seq_q, seq_k): # seq_q: [batch_size, seq_len] ,seq_k: [batch_size, seq_len]                 32*54
    batch_size, len_q = seq_q.size()
    batch_size, len_k = seq_k.size()
    pad_attn_mask = seq_k.data.eq(0).unsqueeze(1)                   # 判断 输入那些含有P(=0),用1标记 ,[batch_size, 1, len_k]
    return pad_attn_mask.expand(batch_size, len_q, len_k)           # 扩展成多维度

def get_attn_subsequence_mask(seq):                                 # seq: [batch_size, tgt_len]                  32*3
    attn_shape = [seq.size(0), seq.size(1), seq.size(1)]
    subsequence_mask = np.triu(np.ones(attn_shape), k=1)            # 生成上三角矩阵,[batch_size, tgt_len, tgt_len]
    subsequence_mask = torch.from_numpy(subsequence_mask).byte()    # [batch_size, tgt_len, tgt_len]
    return subsequence_mask                                                                                      #32*3*3


class ScaledDotProductAttention(nn.Module):
    #给定一个查询向量Q、一个键向量K、一个值向量V和一个注意力掩码attn_mask,
    #该模块会计算出每个查询向量对应的上下文向量context和注意力矩阵attn。
    def __init__(self):
        super(ScaledDotProductAttention, self).__init__()
    def forward(self, Q, K, V, attn_mask):                              # Q: [batch_size, n_heads, len_q, d_k]   32*3*64                                                           # attn_mask: [batch_size, n_heads, seq_len, seq_len]
        scores = torch.matmul(Q, K.transpose(-1, -2)) / np.sqrt(d_k)    # scores : [batch_size, n_heads, len_q, len_k]
        scores.masked_fill_(attn_mask, -1e9)                            # 如果时停用词P就等于 0
        attn = nn.Softmax(dim=-1)(scores)
        context = torch.matmul(attn, V)                                 # [batch_size, n_heads, len_q, d_v]
        return context, attn


class MultiHeadAttention(nn.Module):               #输入QKV和attn_mask四个矩阵
    def __init__(self):
        super(MultiHeadAttention, self).__init__()
#         assert n_heads == d_model//d_k
#         d_k = d_model//n_heads
        self.W_Q = nn.Linear(d_model, d_k * n_heads, bias=False)
        self.W_K = nn.Linear(d_model, d_k * n_heads, bias=False)
        self.W_V = nn.Linear(d_model, d_v * n_heads, bias=False)
        self.fc = nn.Linear(n_heads * d_v, d_model, bias=False)

    def forward(self, input_Q, input_K, input_V, attn_mask):    # input_Q: [batch_size, len_q, d_model]
                                                                # input_K: [batch_size, len_k, d_model]
                                                                # input_V: [batch_size, len_v(=len_k), d_model]
                                                                # attn_mask: [batch_size, seq_len, seq_len]
        residual, batch_size = input_Q, input_Q.size(0)
        Q = self.W_Q(input_Q).view(batch_size, -1, n_heads, d_k).transpose(1, 2)    # Q: [batch_size, n_heads, len_q, d_k]
        K = self.W_K(input_K).view(batch_size, -1, n_heads, d_k).transpose(1, 2)    # K: [batch_size, n_heads, len_k, d_k]
        V = self.W_V(input_V).view(batch_size, -1, n_heads, d_v).transpose(1, 2)       # V: [batch_size, n_heads, len_v(=len_k), d_v]
        attn_mask = attn_mask.unsqueeze(1).repeat(1, n_heads, 1, 1)                 # attn_mask : [batch_size, n_heads, seq_len, seq_len]
        context, attn = ScaledDotProductAttention()(Q, K, V, attn_mask)             # context: [batch_size, n_heads, len_q, d_v]
                                                                                    # attn: [batch_size, n_heads, len_q, len_k]
        context = context.transpose(1, 2).reshape(batch_size, -1,n_heads * d_v)     # context: [batch_size, len_q, n_heads * d_v]
        output = self.fc(context)                                                   # [batch_size, len_q, d_model]
        #return nn.LayerNorm(d_model).cuda()(output + residual), attn
        return nn.LayerNorm(d_model).to(device)(output + residual), attn


class PoswiseFeedForwardNet(nn.Module):
    def __init__(self):
        super(PoswiseFeedForwardNet, self).__init__()
        self.fc = nn.Sequential(
            nn.Linear(d_model, d_ff, bias=False),
            nn.ReLU(),
            nn.Linear(d_ff, d_model, bias=False))
    def forward(self, inputs):                                  # inputs: [batch_size, seq_len, d_model]       32*54*100
        residual = inputs
        output = self.fc(inputs)
        return nn.LayerNorm(d_model).to(device)(output + residual)  # [batch_size, seq_len, d_model]           32*54*100


class EncoderLayer(nn.Module):
    def __init__(self):
        super(EncoderLayer, self).__init__()
        self.enc_self_attn = MultiHeadAttention()                   # 多头注意力机制
        self.pos_ffn = PoswiseFeedForwardNet()                      # 前馈神经网络
    def forward(self, enc_inputs, enc_self_attn_mask):              # enc_inputs: [batch_size, src_len, d_model]
        # 输入3个enc_inputs分别与W_q、W_k、W_v相乘得到Q、K、V            # enc_self_attn_mask: [batch_size, src_len, src_len]
        enc_outputs, attn = self.enc_self_attn(enc_inputs, enc_inputs, enc_inputs,
                                                                    # enc_outputs: [batch_size, src_len, d_model],
                                               enc_self_attn_mask)  # attn: [batch_size, n_heads, src_len, src_len]
        enc_outputs = self.pos_ffn(enc_outputs)                     # enc_outputs: [batch_size, src_len, d_model]
        return enc_outputs, attn

class Encoder(nn.Module):
    def __init__(self):
        super(Encoder, self).__init__()
        self.src_emb = nn.Embedding(src_vocab_size, d_model)                     # 把字转换字向量
        self.pos_emb = PositionalEncoding()                               # 加入位置信息
        self.layers = nn.ModuleList([EncoderLayer() for _ in range(n_layers)])

    def forward(self, enc_inputs):                                               # enc_inputs: [batch_size, src_len]    32*54
        enc_outputs = self.src_emb(enc_inputs)                                   # enc_outputs: [batch_size, src_len, d_model]
        enc_outputs = self.pos_emb(enc_outputs)                                  # enc_outputs: [batch_size, src_len, d_model]
        enc_self_attn_mask = get_attn_pad_mask(enc_inputs, enc_inputs)           # enc_self_attn_mask: [batch_size, src_len, src_len]
        enc_self_attns = []
        for layer in self.layers:
            enc_outputs, enc_self_attn = layer(enc_outputs, enc_self_attn_mask)  # enc_outputs :   [batch_size, src_len, d_model],                                                                      # enc_self_attn : [batch_size, n_heads, src_len, src_len]
            enc_self_attns.append(enc_self_attn)
        return enc_outputs, enc_self_attns

class Transformer(nn.Module):
    def __init__(self):
        super(Transformer, self).__init__()
        self.src_vocab_size = src_vocab_size
        self.tgt_vocab_size = tgt_vocab_size
        self.Encoder = Encoder().to(device)
        self.projection = nn.Linear(d_model, tgt_vocab_size).to(device)

    def forward(self, enc_inputs):
        enc_outputs, enc_self_attns = self.Encoder(enc_inputs)  # enc_outputs: [batch_size, seq_len, d_model]
        enc_outputs = torch.mean(enc_outputs,dim=1)
        output = self.projection(enc_outputs)
        return output

搭建好的Transformer情感分类器即主要由以上数个函数组成,随后我们利用处理好的数据使模型完成预训练,需要注意的是,各部分的输入输出数据维度要能够衔接得上,模型的参数设置也有一定的讲究,这里我设置每次训练取的数据量batch_size为64,也可以取更大的值加快模型训练过程但训练效果不一定更优

import torch
import pandas as pd
import numpy as np
from sklearn.model_selection import train_test_split
#读入数据,共30000+条数据
data=pd.read_csv('df_output.csv')
y=data['label']
y=np.array(y)
del data['label']
X=np.array(data)
x_train,x_test,y_train,y_test=train_test_split(X, y, test_size=0.2, random_state=42)
# 将 x_train 和 y_train 转换为张量类型
x_train,x_test,y_train,y_test=torch.tensor(x_train),torch.tensor(x_test),torch.tensor(y_train),torch.tensor(y_test)
# 将张量类型的数据打包成 TensorDataset
dataset1 = torch.utils.data.TensorDataset(x_train, y_train)
dataset2 = torch.utils.data.TensorDataset(x_test, y_test)
train_loader = Data.DataLoader(dataset1, batch_size, shuffle=True)
test_loader = Data.DataLoader(dataset2, batch_size, shuffle=True)

#进行25轮次模型训练与参数寻优

import torch
import torch.nn as nn
import torch.optim as optim
import matplotlib.pyplot as plt
import torch.utils.data as Data

# 定义优化器
src_idx2word = {
    0: "Natural",
    1: "Negative",
    2: "Positive"
}
device = torch.device("cpu")
model = Transformer().to(device)
train_accuracy_values=[]
test_accuracy_values=[]

criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(model.parameters(), lr=0.05,weight_decay=0.01)

n=25
#进行n轮的模型运算
for epoch in range(n):
    correct_predictions1 = 0
    total_predictions1 = 0
    correct_predictions2 = 0
    total_predictions2 = 0
    combined_loader = Data.DataLoader(dataset1, batch_size, shuffle=True)
    for a,(inputs,labels) in enumerate(combined_loader):
        optimizer.zero_grad()
        outputs = model.forward(torch.tensor(inputs))
        outputs = torch.squeeze(outputs)  # 去除维度为1的维度
        # 将模型输出经过Sigmoid激活函数处理
        loss = criterion(outputs, labels.long())  # 计算损失
        output=nn.functional.softmax(outputs,dim=1)
        loss.backward()
        optimizer.step()
        # Calculate accuracy
        _, predicted = torch.max(outputs, 1)
        #print(predicted)
        total_predictions1 += labels.view(-1).size(0)
        correct_predictions1 += (predicted == labels.view(-1)).sum().item()
    #测试过程
    new_loader = Data.DataLoader(dataset2, batch_size, shuffle=True)
    with torch.no_grad():
        for a,(inputs,labels) in enumerate(new_loader):
            outputs = model.forward(torch.tensor(inputs))
            outputs = torch.squeeze(outputs)  # 去除维度为1的维度
            # 将模型输出经过Sigmoid激活函数处理
            loss = criterion(outputs, labels.long())  # 计算损失
            output=nn.functional.softmax(outputs,dim=1)
            # Calculate accuracy
            _, predicted = torch.max(outputs, 1)
            #print(predicted)
            total_predictions2 += labels.view(-1).size(0)
            correct_predictions2 += (predicted == labels.view(-1)).sum().item()

    # Calculate and append the average loss and accuracy for the epoch
    train_accuracy = (correct_predictions1 / total_predictions1) * 100
    train_accuracy_values.append(train_accuracy)
    test_accuracy = (correct_predictions2 / total_predictions2) * 100
    test_accuracy_values.append(test_accuracy)
    
    print('Epoch:', '%04d' % (epoch + 1), 'train_accuracy =', '{:.2f}%'.format(train_accuracy))
    print('Epoch:', '%04d' % (epoch + 1), 'test_accuracy =', '{:.2f}%'.format(test_accuracy))
torch.save(model,'model.pth')

由于数据量与参数量庞大且本人使用的是CPU内核,因此上述训练过程耗费时长达到4个小时,将模型训练结果绘制成曲线则如下图:

在经过25轮次的训练后,模型在训练集上的准确度达到90.26%,在测试集上达到83.04% ,如下:

写在最后

        总之,针对股票评论的情感分类器是一种有潜力的技术,可以帮助投资者更好地理解市场情绪,做出明智的投资决策。然而,这项技术还面临着许多挑战,如处理文本的主观性和语义复杂性,适应不同的市场环境和语言风格,以及应对信息的不确定性等。尽管如此,研究者们已经取得了一些令人鼓舞的成果,并提出了许多新的方法和模型来提高情感分类器的准确性和鲁棒性。通过不断地改进和创新,我们相信这项技术将在未来的股票市场中发挥更加重要的作用,为投资者提供更加准确和有价值的参考和决策依据。

详细复现过程的项目源码、数据和预训练好的模型可从该文章下方附件获取

【传知科技】关注有礼     公众号、抖音号、视频号

评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

亦世凡华、

你的鼓励是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值