基于记忆与基于模型的推荐系统对比

       在任何读到推荐系统的地方,你都会发现一种分类方法:基于记忆的推荐系统与基于模型的推荐系统。看到一些对此分类的糟糕解释,我决定尝试尽量简略的解释它。
       基于记忆的方法使用用户之间(协同过滤)或物品之间(基于内容的推荐)的联系(相似性)这一数据(赞、投票、点击等等)来给用户u推荐他从来没见到的物品i。在协同过滤例子中,从与用户u最相似的用户组里的物品集来推荐,因此物品是协同合作的。与此相反,基于内容的推荐尝试比较物品的特性如电影类型、演员、原书的出版社等来推荐相似的新物品。简单地说,基于记忆的方法严重地依赖简单的相似性度量(比如余弦相似性、皮尔森相关系数等)来把相似的用户或物品匹配起来。如果有一矩阵,其中每一行是一个用户,每一列代表一个物品,则基于记忆的方法对这一矩阵的行或列使用相似性度量来获得一个相似度值。
       另一方面基于模型的方法尝试更进一步地填充上面说的矩阵,它们尝试量化一个用户会多么的喜欢他们之前没有遇到的物品。为达此目的,基于模型的方法使用一些机器学习算法来对物品的向量(针对一个特定的用户)来训练,然后建立模型来预测用户对于新的物品的得分。流行的基于模型的技术是贝叶斯网络、奇异值分解和隐含概率语义分析。 
       原文链接:
  • 5
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
基于LSTM的诗词生成模型是一种使用长短期记忆(LSTM)深度学习模型来生成诗词的方法。这种模型可以通过学习大量的古诗词数据集,自动地生成符合古诗词形式和意境的新诗词。 该模型的实现过程可以分为以下几个步骤: 1. 数据预处理:首先需要准备一个包含大量古诗词的数据集。然后,将每个古诗词转换为数字序列,以便于模型处理。可以使用字典来将每个字或词映射到一个唯一的数字。 2. 构建LSTM模型:使用深度学习框架(如TensorFlow或PyTorch)构建一个LSTM模型。LSTM模型是一种递归神经网络,可以处理序列数据并具有记忆能力。模型的输入是前面的字或词序列,输出是下一个字或词的预测。 3. 模型训练:使用数据集训练LSTM模型。在训练过程中,模型会根据已知的输入序列预测下一个字或词,并与实际的下一个字或词进行比较,通过反向传播算法来更新模型的参数,使得预测结果逐渐接近实际结果。 4. 生成诗词:训练完成后,可以使用已训练好的模型来生成新的诗词。可以选择随机生成诗词或者根据给定的首句生成藏头诗。生成过程中,模型会根据前面的字或词序列预测下一个字或词,然后将预测结果作为输入继续预测下一个字或词,直到生成完整的诗词。 基于LSTM的诗词生成模型可以通过训练大量的古诗词数据集来学习古诗词的规律和风格,从而生成具有相似风格的新诗词。然而,生成的诗词质量和意境还有待改进,需要进一步优化模型和训练算法。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值