好的文章总结

这里总结是自己在搜索的过程中看到的好的文章。
不区分方向,因为感觉自己再造轮子写一遍或者转载没啥意义。
与其如此不如直接总结到一个文章里,当一个手册这种。
当然文章中可能会出现一些地址不能再用的情况。

Jupyter notebook之如何快速打开ipynb文件

点击进入

全网最通俗易懂的 Self-Attention自注意力机制 讲解

点击进入

如何解决vs无法使用万能头文件#include<bits/stdc++.h>

点击进入

如何使用Visual Studio 2017建立一个C语言项目

点击进入

Visual Studio 2017安装

点击进入

opencascad从入门到进阶之:下载 配置和编译

点击进入

Visual Studio 2017安装和项目配置

点击进入

python中的装饰器:@staticmethod,@classmethod,@abstractmethod ,@property

https://blog.csdn.net/qq_44761919/article/details/125726541
点击进入

win10缺少msvcr110dll,msvcp110.dll的解决办法

点击跳转
https://www.bilibili.com/video/BV1qa411s7ZT/?spm_id_from=333.337.search-card.all.click&vd_source=98d31d5c9db8c0021988f2c2c25a9620
工具下载:http://disk.1473.cn/softwaredownload

pycharm远程连接Ubuntu服务器

https://blog.csdn.net/weixin_44975490/article/details/129706041?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522170891123316800222883303%2522%252C%2522scm%2522%253A%252220140713.130102334.pc%255Fblog.%2522%257D&request_id=170891123316800222883303&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2blogfirst_rank_ecpm_v1~rank_v31_ecpm-2-129706041-null-null.nonecase&utm_term=pycharm%E8%BF%9C%E7%A8%8B%E8%BF%9E%E6%8E%A5%E6%88%90%E5%8A%9F&spm=1018.2226.3001.4450
点击跳转

用torch.nn.Sequential()搭建神经网络模型

https://blog.csdn.net/weixin_43135178/article/details/116806344?spm=1001.2014.3001.5506
点击跳转

python中view()函数怎么用?

https://blog.csdn.net/qq_26400705/article/details/109816853?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522170913539416800225558954%2522%252C%2522scm%2522%253A%252220140713.130102334…%2522%257D&request_id=170913539416800225558954&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2blogbaidu_landing_v2~default-1-109816853-null-null.nonecase&utm_term=pyhon%20view&spm=1018.2226.3001.4450
点击跳转

Pytorch学习笔记——kaiming_uniform初始化

https://blog.csdn.net/m0_48742971/article/details/123883058?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522170917206616777224449819%2522%252C%2522scm%2522%253A%252220140713.130102334…%2522%257D&request_id=170917206616777224449819&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2blogsobaiduend~default-2-123883058-null-null.nonecase&utm_term=torch.nn.init.kaiming_uniform_&spm=1018.2226.3001.4450
Pytorch学习笔记——kaiming_uniform初始化

pytorch中.weight.data与.weight的区别

https://blog.csdn.net/weixin_42516475/article/details/120011394?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522170917239516800213061287%2522%252C%2522scm%2522%253A%252220140713.130102334…%2522%257D&request_id=170917239516800213061287&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2blogsobaiduend~default-1-120011394-null-null.nonecase&utm_term=.weight.data&spm=1018.2226.3001.4450
点击跳转

深度学习——参数管理(笔记)

https://blog.csdn.net/jbkjhji/article/details/128037892?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522170917239516800213061287%2522%252C%2522scm%2522%253A%252220140713.130102334…%2522%257D&request_id=170917239516800213061287&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2blogsobaiduend~default-2-128037892-null-null.nonecase&utm_term=.weight.data&spm=1018.2226.3001.4450
点击跳转

torch.nn.Parameter()函数的讲解和使用

https://blog.csdn.net/weixin_44878336/article/details/124733598?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522170917508316800188540378%2522%252C%2522scm%2522%253A%252220140713.130102334…%2522%257D&request_id=170917508316800188540378&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2blogtop_positive~default-1-124733598-null-null.nonecase&utm_term=torch.nn.Parameter&spm=1018.2226.3001.4450
点击跳转

nn.BatchNorm1d 与 nn.BatchNorm2d 使用方法与原理

https://blog.csdn.net/qq_36396406/article/details/136095420?ops_request_misc=&request_id=&biz_id=102&utm_term=batchnorm%E5%92%8Cbatchnorm1d&utm_medium=distribute.pc_search_result.none-task-blog-2blogsobaiduweb~default-2-136095420.nonecase&spm=1018.2226.3001.4450
点击跳转

Torch geometric NNConv 源码分析

https://blog.csdn.net/qq_41987033/article/details/103497749?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522170917610316800192235225%2522%252C%2522scm%2522%253A%252220140713.130102334…%2522%257D&request_id=170917610316800192235225&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2blogbaidu_landing_v2~default-1-103497749-null-null.nonecase&utm_term=NNConv&spm=1018.2226.3001.4450
点击跳转

python中的argparse基本用法

https://blog.csdn.net/mg1507/article/details/124468327?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522170920769816800182134773%2522%252C%2522scm%2522%253A%252220140713.130102334…%2522%257D&request_id=170920769816800182134773&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2blogtop_positive~default-1-124468327-null-null.nonecase&utm_term=%20argparse&spm=1018.2226.3001.4450
点击跳转

conda命令克隆(复制)环境方法及问题解决

https://blog.csdn.net/qq_38603174/article/details/134187647
点击跳转

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
推荐系统论文归类总结 本文主要记录较新的推荐系统论文,并对类似的论文进行总结和整合。 目录 推荐系统论文归类总结 综述 协同过滤理论 矩阵分解 因子分解机 基于内容的推荐 基于DNN的推荐 基于标签的推荐 基于自编码器 Item2Vec 上下文感知模型 基于视觉的推荐 基于RNN的推荐 基于图的推荐 基于树的推荐 公司的推荐系统的发展历程 数据集 参考资料 版权声明 综述 《Deep Learning based Recommender System: A Survey and New Perspectives》 《Use of Deep Learning in Modern Recommendation System: A Summary of Recent Works》 这几个综述比较全面,介绍了目前的深度学习在推荐系统中的应用。 协同过滤理论 1.《Application of Dimensionality Reduction in Recommender System - A Case Study》推荐系统的维度下降技术。 这是发表于2000年的“古老”论文,该文是最早探讨如何解决协同过滤数据量很大时的问题。这个论文提出了使用传统的SVD降维的技术。 这个文章提出推荐系统可以分为两部分:预测、推荐。预测可以使用加权和,推荐使用TopN。可能因为这个文章特别早吧,他认为推荐系统面临的主要问题是三个:稀疏,规模,“同义词”。当数据集稀疏的时候,皮尔逊近邻算法可能根本无法使用。规模很好理解。这个同义词的意思是两个相似的物品名字不同,推荐系统不能发现他们之间的隐相关性。同义词问题没看到这个文章怎么解决的,事实上我也没看到其他论文上如何解决这个问题,甚至已经不认为这是推荐系统要解决的问题了。 该文认为SVD的任务有两个: 1.捕捉用户和商品的隐层关系,允许我们计算用户对商品打分的预测值。 2.对原始的用户和商品关系进行降维,并且在低维空间计算邻居。 该传统的SVD是一种矩阵分解方法,这种方法的缺点是需要先把评分矩阵缺值补足,是一种线性代数里的求解析解的方法。这种方法可以研究的一个点就是如何进行缺失值填补,不同的填充方法,对结果产生不同的影响。另外就是SVD降维是代表维度k值的选取,这个需要使用实验获得。另外,真正的预测是放在线下运行的,可以在用户的访问时迅速做出推荐。 总体而言,这个文章介绍了SVD如何在推荐系统中使用,并通过实验说明了如何做预测和推荐。因为该矩阵分解方法和后来的矩阵分解差异已经很大,所以不放入后面的矩阵分解篇幅中。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值