评论相关的推荐系统
对你说的对
这个作者很懒,什么都没留下…
展开
-
代码小结(4.11)
1.torch.nn.Variable() 其中不仅包含了data,还包含了grad,grad_fn.关于Variable2.model.train()和model.eval()model.train()训练时启用Batch Normalization和Dropout。model.eval()在验证集和测试集上不启用Batch Normalization和Dropout。model.train()和model.eval()3.torch.optim.Adam()torch..原创 2021-04-11 22:39:52 · 202 阅读 · 0 评论 -
代码小结(4.7)
1、python函数(1)map函数 map(function, iterable,...) function--函数,后边列表中的序列参数作为function的参数,对列表中的每个参数执行function函数。 iterable--一个或多个序列map函数(2)2、pandas中的函数(1)groupby() 其中的参数as_index=True,DataFrame数据类型中不显示索引项(0,1,2,...),而是以第一列组标签为索引值;as_index=F...原创 2021-04-07 17:55:28 · 167 阅读 · 1 评论 -
代码小结(4.6)
1、数据集加载类torch.utils.data.DataLoader其中的参数collate_fn,可以通过这个函数对样本进行进一步处理,原则上返回值是一个有结构的batch。聊聊Pytorch中的dataloader2、pickle包import pickledata = ... # Some Python objectf = open('somefile', 'wb')pickle.dump(data, f) 将一个对象保存到一个文件中。s = pickle.du.原创 2021-04-06 22:04:56 · 184 阅读 · 0 评论 -
基于aspect的情感分析总结
基于Aspect的情感分析模型总结(一)基于Aspect的情感分析模型总结(二)1、区分概念context,target,aspect context指的是句子中的words,target指的是句子中出现的词,aspect可以是句子中未出现的词,属于预先定义的比较高级的类别刻画。target和aspect都可以理解为方面,即该句子从那几方面描述了一件产品。2、模型发展过程(1)使用LSTM的ABSA①LSTM 不考虑target words,直接对句子进行LSTM,只...原创 2021-03-31 10:51:27 · 821 阅读 · 0 评论 -
Multi-grained Attention Network for Aspect-Level Sentiment Classification阅读笔记
本文提出了一个多粒度的注意力网络,用于解决基于aspect情感分析的问题。 以往的模型主要有两个缺点。一是采用粗粒度的注意力机制,这样当某一aspect有很多单词或文本内容较大,会造成信息损失。二是其训练aspect只与其内容相关,aspect之间不相关。 所谓的粗粒度的注意力机制指的是,对于aspect的平均向量,交互学习context word的权重;对于context的平均向量,交互学习aspect word的权重。这种思想来自于IAN,其认为在基于aspect的情感分类任务中,tar...原创 2021-03-30 21:36:48 · 542 阅读 · 1 评论 -
关于语言模型
语言模型是一系列单词的概率分布,其完成了从word到word embedding的映射。NLP入门 构建语言模型的基本方法有两类,分别是基于频率统计和基于预测。 基于频率估计的主要方法是GloVe,它通过构建词向量(word embedding)和共现矩阵(Co-ocurrence Maxtrix)之间的近似关系,经过训练最终获得word embedding的表示。GloVe详解 基于预测的主要方法是word2vec,具体方法有Skip-gram和CBOW。这两种方法都...原创 2021-03-26 15:29:08 · 122 阅读 · 0 评论 -
优化方法SGD/AdaGrad/RMSProp
SGD:梯度下降方法优化,手动设置学习率,学习率不会自动变化,只能手动更改。 AdaGrad:学习率自学习,学习率随着训练过程改变,调整学习过程。AdaGrad RMSProp:在AdaGrad的基础上,改进学习率调整的方法,加了一个衰减系数来控制历史信息的获取量。RMSProp...原创 2021-03-25 21:33:03 · 224 阅读 · 0 评论 -
Joint Deep Modeling of Users and Items Using Reviews for Recommendation阅读笔记
文章将深度模型应用于评论信息,利用评论信息学习user和item的隐表示,然后用FM方法预测评分。 模型分为三部分,分别是Word Representation,CNN Layers和The Shared Layer。 在Word Representation部分,将评论中的每个单词转换为单词向量表示: 在CNN Layers层,采用多个尺寸不同的核,利用CNN提取评论信息。首先经过卷积层,然后经过最大池化层,捕捉提取的最重要的特征,,CNN输出,,最终经过一个全连接层,获得最终表...原创 2021-03-25 21:08:49 · 243 阅读 · 0 评论 -
Multi-Pointer Co-Attention Networks for Recommendation阅读笔记
该模型主要用于处理评论信息,提高推荐的准确性。 模型分为六个部分,分别是Input embedding,Review-level Co-attention,Review Pointers,Word-level Co-Attention,Multi-Pointer Learning和Prediction Layer。一、Input embedding 首先是Input embedding层,该层分为两个部分,即EmbeddingLayer和Review Gating Machanis...原创 2021-03-24 09:09:34 · 611 阅读 · 0 评论 -
Factorization Machines的推荐方法
FM相对于LR(线性回归)的改进:FM除了考虑了线性回归,还考虑了不同特征分量之间的相互关系。对于观察样本中未出现交互的特征分量(未观察到的user和item),也能进行相应的参数估计。参考资料:FM推荐算法原理...原创 2021-03-22 22:37:42 · 89 阅读 · 0 评论 -
Reparameterization 重参数/Gumbel-Max/Gumbel-Softmax
1、三者之间的关系重参数是一种处理期望形式目标函数的方法,处理这种目标函数意味着要从分布中采样。该分布中带有参数,如果直接采样的话,就会失去参数的梯度。而重参数提供这样一种变换,是我们可以直接从分布中采样,并且保留参数的梯度。 如果从离散分布中采样,需要定义一种可微分的与离散分布近似的取样方法,这就需要用到Gumbel-Softmax。 Gumbel-Max是Gumbel-Softmax的基础,提供了一种从类别分布中采样的方法。但Gumbel-Max因为存在取最大值的操作,故其不可导。而...原创 2021-03-22 22:31:54 · 1269 阅读 · 0 评论