![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
学习笔记
文章平均质量分 95
JinyuZ1996
Standing on the shoulder of giants.
展开
-
【科研分享】如何切换GPU以及如何在Tensorflow实验中节约GPU资源
大家跑深度学习进行科研的时候,单机的算力往往无法支持我们进行例如图神经网络、强化学习网络等复杂模型的训练任务。所以常常需要使用服务器的GPU来训练模型,但是多人共用的服务器该如何避免冲突呢?这里给出一段常用的代码可以方便大家在查看NVIDIA 显卡GPU的使用情况之后,合理的切换gpu来预防冲突,同时本文还介绍了如何降低模型显存消耗的办法,主要针对Tensorflow框架。如何在多个GPU间进行选择图1:一个服务器中存在多块GPU可用的情况 如图1所示,就是同时有两块儿NVIDIA显卡可原创 2021-10-31 12:00:20 · 2475 阅读 · 0 评论 -
【科研分享】监控服务器GPU、CPU和内存使用情况的方法(Windows和Liunix环境)
最近在实验过程中发现,其实本来不太消耗资源的任务,由于Tensorflow的反人类默认设计也经常会直接独占一整块儿GPU的资源,而且独占那么多资源也还是一样的速度,没什么效率。然后去搜索了一下,找到了一些在用服务器跑代码的时候的小技巧和解决方案,给在这里用于自查:实时监控资源动态 大家的服务器一般都是Liunix系统较多,所以在这里普及一个常用的命令可以方便大家实时的查看GPU使用情况,防止互相占用的问题发生:watch -n 1 nvidia-smi 其中,-n后面的1是刷新速率原创 2021-04-21 16:46:49 · 4182 阅读 · 0 评论 -
【科研分享】推荐算法指标总结(ACC,Precision,Recall,F1,FPR,TPR,ROC,AUC,MAP,MRR,HR,NDCG...)
常用的推荐算法指标解释总结1. 指标计算的参数(TP,TN,FP,FN) TP:被正确分类的正例(True-Positive),即正例被分成正例的样本。 TN:被正确分类的负例(True-Negative),即负例被分成负例的样本。 FP:被错误分类的负例(False-Positive),即本来是负例却被分成了正例的样本。 FN:被错误分类的正例(False-Negative),即本来是正例却被分成了负例的样本。2. 预测精准度(Accuracy) 即被正确分类的正例和原创 2021-03-08 22:05:03 · 18410 阅读 · 4 评论 -
【科研分享】一份比较全的pip设置入门教程(多种方案解决原生Python中pip下载慢的问题)
解决原生Python pip下载速度慢问题 这两天写了一篇给Anaconda切换国内源的文章,想着就一并把pip的也发了吧,反正都是大家在用Pycharm时常碰到的问题。方法一:在Pycharm中操作的方法 首先,我们打开Pycharm IDE,肯定是先你是有安装过Python的,比如笔者下图给出的是我安装的Python3.7,那么我们需要从Setting里找到Project然后在子选项卡里找到Python Interpreter,就如同图中标示的一样,如果你在本机安装了一个版本的Pytho原创 2021-01-06 21:59:25 · 739 阅读 · 0 评论 -
【科研分享】一份比较全面的conda配置指南(如何在服务器或本地用命令行配置Anaconda或Miniconda的channels)
如何在服务器或本地用命令行配置Anaconda或Miniconda的channels 这是第n次配服务器环境了,每次都去翻收藏怪麻烦,在这里直接也亲手写一份总结,主要是自己查起来方便,也给大家提供一个比较全面的方案。通常Channels配置这个需求的诞生,都是在服务器或者本地刚刚安装了Anaconda或者Miniconda的前提下诞生的,由于原始的defaults channels实在是太难用了,所以我们迫切的想换上清华的镜像来提速环境配置过程。这里不再赘述如何在Linux或者Windows安装Ana原创 2021-01-06 17:06:11 · 4359 阅读 · 0 评论 -
【学习笔记】学习特征交叉类经典模型POLY2、FM、FFM
特征交叉类经典推荐模型——POLY2、FM、FFM 本系列第四篇文章,我们来学习一下什么是特征交叉类推荐模型。这同样是一系列非常经典的推荐系统模型。上一节我们也说到了,逻辑回归LR模型很简单,同时它的表达能力不是很强,会不可避免的造成信息丢失。有很大的局限性,最主要的就是他无法同时考虑多维特征共同作用的影响,也就是特征交叉的重要作用。因为我们知道的,有些情况下仅仅依靠单一的特征而非交叉特征进行判断的情况下有时不仅会导致信息损失,甚至可能导致得出的结论是错误的。如果大家曾经了解过‘辛普森悖论’,那么也许原创 2020-11-30 19:48:30 · 3526 阅读 · 13 评论 -
【学习笔记】学习逻辑回归Logistic Regression及延伸阅读
【概念解析】融合多种特征——逻辑回归推荐模型 那么接下来就该介绍第三种比较经典的推荐模型了,逻辑回归模型,事实上在学习机器学习阶段的时候大家可能就已经在李航老师的《统计学习方法》或者周志华老师的西瓜书里面学习过逻辑回归的基本概念了,那如果说我们把这种成熟的机器学习技术应用到我们的推荐领域呢。显然,比起我们前面提及的协同过滤经典模型要更有优势。相比于协同过滤仅仅利用用户与物品的相互行为信息进行推荐,逻辑回归模型能够综合利用用户、物品、上下文等多种不同的特征。生成更为全面的推荐结果。 另外一方面,逻原创 2020-11-10 10:51:08 · 1449 阅读 · 0 评论 -
【学习笔记】Tensorflow 2.0+与Keras的联系与应用(含model详解)
Tensorflow 2.0与Keras的联系与应用(含model详解) 事实上我个人入坑tensorflow比较晚,于是导致我其实并没有经历Tensorflow_v1特别火热的那个年代,今年(2020年)早些时候,Tensorflow_v2已经成熟并且开始大量的出现在技术干货当中,于是,我相当于跳过了那个需要写sess的过程,直接学习了函数式model定义以及Keras,可以说是非常幸福了(因为确实简化了很多工作)但遗憾的是,在机器学习和深度学习过程中,大量的前辈的文章,赖以实现的源代码和demo使原创 2020-10-08 15:08:23 · 1888 阅读 · 7 评论 -
【学习笔记】矩阵分解Matrix Factorization及延伸阅读
全面理解矩阵分解MF在推荐系统中的应用 那么,这是本系列的第二篇文章,讨论的是关于第一篇协同过滤之后的改进算法矩阵分解(MF),我会从多个方面讨论该算法的与案例以及它的优缺点。矩阵分解并不是某一种单一的方法,虽然我们最常用的是其中的梯度下降法,但是你会发现在我们之前学习的线性代数中有很多技术可以拿来实现矩阵分解,比如特征值分解ED和奇异值分解SVD,只不过这两种方法都有自己的不足而无法满足实际推荐系统的需要,我会在下文中说明为什么历史选择了梯度下降法。其实,我发现我在上一节最后一部分给出的案例代码当中原创 2020-10-05 19:09:09 · 2869 阅读 · 1 评论 -
【学习笔记】协同过滤Collaborative Filtering及小案例实践
全面理解经典协同过滤在推荐系统中的应用 王喆老师在的《深度学习推荐系统》一书中提到过,即使在深度学习空前流行的今天,协同过滤、逻辑回归、因子分解机等传统推荐方法仍然可以凭借其可解释性强、硬件环境要求低、易于部署和训练的天然优势而拥有大量的应用场景,而在机器学习过程中,我记得大概是学到SVD奇异值分解那一块儿的时候,《机器学习实战》一书中也为大家做过一个简单的基于物品协同过滤推荐的案例(想了一下,好像没法过,我还是放在最后面吧)。这也就是说如果我们想要深入的去探索推荐系统的话同时也需要对这些早期的传统推原创 2020-10-03 15:07:08 · 2244 阅读 · 0 评论 -
【学习笔记】尝试理解Embedding在推荐系统中的应用
简单理解Embedding技术在推荐系统中的应用 在之前的学习阶段做过一些实验,很多时候在构建model时候不管三七二十一上来就先来上一层Embedding,只知道加上Embedding层后会得到更好的结果却未曾深究其作用,经过阅读《深度学习推荐系统》一书,才明白了个大概,拿来分享给大家也方便日后自己理解。本文结合推荐系统来阐述Embedding的作用和原理。但这里没有涉及具体代码实现,只做简单的概念的阐述。Embedding概述 Embedding操作经常出现在我们设计的模型里,我们称其为原创 2020-09-28 16:42:50 · 1291 阅读 · 0 评论 -
【学习笔记】认知神经与机器学习交叉的思考
机器学习与认知神经的火花碰撞 本文总结自2020年9月中旬,颜水成和刘嘉老师的谈话,两位前辈谈及了很多认知神经和机器学习交叉部分的问题,很有启发性,并且解答了很多平时我们单纯在学习机器学习过程中产生过疑问却又忘记发问的问题。我将其中对我个人比较有启发的部分总结出来,方便以后自查,同时也分享给大家。(我们会经常发现很多新的成果都来自于交叉领域,所以还是很有帮助的) 在此介绍一下两位前辈: 颜水成:依图科技 CTO,智源“机器学习”重大研究方向首席科学家 刘嘉:清华大学教授,智源原创 2020-09-26 11:21:51 · 1381 阅读 · 1 评论 -
【学习笔记】model.compile方法中metrics评价函数
关于model.compile方法中metrics评价函数的总结问题引入 大家会发现我们在做实验的过程中,经常会发现在Model.compile的过程中会需要写一个参数比如:metrics=['accuracy'],那么这个时候一般情况下很少有文章或者代码注释中会提及这个参数选择的原因或者意义,尤其是笔者前期是个小白,一开始接连做的都是几个二分类的神经网络实验,甚至一度以为只要一直写metrics=['accuracy']就不会报什么错。但这种想法其实是错误且荒谬的,这个参数其实在面对不同的数据集原创 2020-09-23 10:30:59 · 25284 阅读 · 10 评论 -
【学习笔记】Sigmoid, Relu, Swish, Gelus, Maxout等常用激活函数的分析学习
深度学习激活常用函数比较分析 本文主要针对邱锡鹏老师《NNDL》中3.1节中提及的集中激活函数做了一下对比记录,并不较少激活函数本身,只是从发展和优缺点的角度去评价他们。并尝试在他们当中找出可改进的角度和变化趋势。...原创 2020-08-23 22:13:58 · 1315 阅读 · 0 评论