自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(11)
  • 收藏
  • 关注

原创 tensorflow基础知识-显示张量具体值

代码】tensorflow基础知识。

2022-08-08 22:23:17 502 1

原创 机器学习中的训练集、验证集以及测试集

验证集:在训练过程中我们还要对模型选择和参数调优,如果在模型选择的过程中,始终用测试集来评价模型性能进行参数调优,实际上时将测试集变相的转变为训练集。这时候选择的最优模型很可能是过拟合的。所以引入验证集,起作用是在训练过程中进行模型选择和参数调优,减缓训练时的过拟合。测试集:用于评估模型的性能,也可称为模型的泛化能力。测试集从头到尾不参与模型的训练。训练集:用于模型的训练。...

2022-08-08 22:15:49 569

原创 pytorch教程笔记-B站小土堆

python文件的块是所有行的代码,适用于大型项目,需要从头开始运行python控制台以一行(一般)也可以任意行为块运行 它可以显示每个变量属性。不利于代码阅读修改。适用于调试jupyter 以任意行为块运行。利于代码阅读和修改。但是环境需要配置dataset:提供一种方式去获取数据和标签。从垃圾堆中找到有用的可回收垃圾如何获取每个数据和标签以及有多少数据Dataloader: 提供数据打包服务。为后面网络提供不同的数据形式...

2022-07-11 20:57:09 269

原创 异构网络-元图、知识图谱

异构网络:异构网络中基于元图的推荐——FMG_cqu_shuai的博客-CSDN博客_元图和元路径异构信息网络和知识图谱异同异质信息网络和知识图谱_饮冰l的博客-CSDN博客_异质信息网络

2022-07-08 21:52:17 435

原创 DDPG简单解释

DDPG是DQN连续动作的扩展版本。DDPG全称Deep Deterministic Policy GradientDeep:使用到了深度神经网络Deterministic: DDPG输出确定性策略,输出Q值最大动作,可以用于连续动作的一个环境Policy Gradient :使用策略网络进行更新 DDPG需要一边学习Q网络。一边学习策略网络。图示结构称为Actor-Critic结构...

2022-07-07 22:56:02 2072

原创 value-based 与 policy-based区别

value-based 代表算法:sarsa、Q-learning、DQN1、直接输出Q值,根据Q值选择动作2、当把Q网络训练到一定程度后,Q网络收敛,输入相同状态,得到相同动作。属于确定性策略policy-based 算法1、输出每个动作的概率值,然后随机选择动作2、即便把网络训练到收敛,相同状态,也可能得到不同动作,属于随机策略...

2022-07-02 21:00:42 481

原创 强化学习&推荐系统入门课程(持续更新)

王树森-深度强化学习课程资料:GitHub - wangshusen/DRL: Deep Reinforcement Learning课程链接:【王树森】深度强化学习(DRL)_哔哩哔哩_bilibili李宏毅-强化学习课程PPT&笔记:Hung-yi LeeEasyRL课程链接:【李宏毅】2020 最新课程 (完整版) 强化学习 - 71.作業十五 ML Lecture 23-1 - Deep Re_哔哩哔哩_bilibili莫凡-强化学习课程代码:https://

2022-05-23 14:36:10 525

原创 知识图谱 & 图 & 强化学习 & 推荐系统

知识图谱或图为强化学习的状态和动作选择提供语义信息得到更好的表示来优化强化学习的过程。 Unified Conversational Recommendation Policy Learningvia Graph-based Reinforcement Learning 2021 SIGIR Interactive Recommender System via Knowledge Graph-enhanced Reinforcement Learning 2020 SIGIR Interactive

2022-05-23 10:53:58 820

原创 强化学习应用到序列推荐与其他推荐输入数据区别

强化学习输入的数据是序列数据当强化学习应用到序列推荐时输入的是时序项目(按时间顺序排列)当强化学习应用到其他推荐输入的是时序数据(可以理解为用户在选择推荐项目之前的一系列行为)例如对话推荐中输入的是用户在选择推荐项目之前提及到的属性、项目...

2022-05-23 10:33:23 248

原创 科研进阶成长路(关于GPU、CPU区别)

2022年3月30日工作时长6.5h工作内容:1、整理论文确定研究方向具体说在状态表示S中应用图神经网络对用户的多行为进行建模,更好的表示出用户的动态偏好,并将其应用到强化学习的框架中,强化学习的框架还需要进一步确定把有代码的论文整理出来,复现论文代码,从代码角度更好的去理解论文2、GPU、CPU区别,以及免费GPU算力平台CPU、GPU区别:免费算力平台使用:...

2022-03-30 18:54:31 2836

原创 Windows 10系统在Anaconda下安装虚拟环境GPU版Pytorch

参考以下三个博客,获益匪浅Anaconda环境安装GPU版本Pytorch_莫邪莫急的博客-CSDN博客_conda安装pytorch gpuWindows 10系统在Anaconda下安装GPU版Pytorch_开开_王子的博客-CSDN博客_anaconda安装pytorch gpu版本Anaconda安装和清华源快速安装PyTorch_恒88888888的博客-CSDN博客复现代码时,代码需要什么样的版本环境直接在anaconda命令端创建,需要的版本号直接在命令行中添加,在清华镜像下.

2022-02-10 19:11:09 1102

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除