keras----CNN评论分析

这篇博客探讨了为何作者偏好使用keras而非tensorflow,主要原因是keras的简便性和内置优化工具。作者通过cnn、RNN和cnn_rnn三个模型进行了文本预处理和词向量生成,强调了去除停用词的必要性。在CNN模型中,使用了不同大小的卷积核,并通过concatenate操作融合特征。实验表明,线性分类器优于softmax分类器,但阈值设定需要人工调整。最后,作者介绍了RNN-CNN模型的结合,赋予模型记忆功能。
摘要由CSDN通过智能技术生成

相比用tensorflow我更倾向用keras,理由:1. keras使用对于我来说更加简便。2. keras自带优化模型工具较好 3. 代码相对要简单一点

在keras我用了3个模型,分别是cnn、RNN、cnn_rnn

文本预处理:

对于文本我们一般想到的都是去除标点符号和停用词,这里说明一点,之前我认为我的训练数据过少,打算不去停用词,这样训练会有更多的词汇和特征,但其实去除停用词可以避免浪费时间去处理没有用的词或者对训练数据作用不大的词,这是非常有必要的。

def preprocess(data):
    stopwords = {}
    for line in codecs.open('C:/Users\huhu\Desktop\huhu\ceshi/stop.txt','r','utf-8'):
        stopwords[line.rstrip()]=1
    data['doc'] = data['COMMCONTENT'].map(lambda x:splitWord(x,stopwords))
    return data;
train.COMMCONTENT.fillna('_na_',inplace=True)
test.COMMCONTENT.fillna('_na_',inplace=True)

train = preprocess(train)
test = preprocess(test)
# print("============train=====",train.doc.values)

comment_text = np.hstack([
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值