![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 71
mantoureganmian
中年,不想上班,想远程办公。熟悉自然语言处理,推荐系统,机器学习。
展开
-
Jupyter杂症二:导航目录不显示或展示不全--空白--部分显示--TOC2--侧边目录问题--插件问题--nbextensions
有些问题,解法还真的是莫名其妙,就如同拍了一下电视机就好了。。。。。难道是在拍的时候,我们传了内力给了计算机?原创 2023-09-15 11:00:22 · 1953 阅读 · 25 评论 -
深度学习烦人的基础知识(2)---Nvidia-smi功率低,util高---nvidia_smi参数详解
三个人,一个在举重,一个人在跑步,一个人在走路。他们都在运动,都是忙碌的,也就是GPU-Util占用高。但是很显然举重的,对外做功高,跑步的做功低,走路的最差,也就是GPU的耗电情况。如下所示,其表格中,有这么多参数,且参数名与值的其位置是一一对应的。我用不同颜色进行标识,同一种颜色的方框和箭头,标识出参数名和其值的位置关系。Pwr是指GPU运行时耗电情况,如图中GPU满载是300W,目前是86W与GPU2的空载情况功率相等。如下图所示,GPU功率很低,Util占用率高。,也就是人员到位了,在等活干,原创 2024-01-13 11:37:55 · 1569 阅读 · 2 评论 -
引读attention机制--个人理解
文章目录Attention机制---其然为什么这么设计----其所以然人是如何通过注意力快速做决断的?看到与理解Attention机制看了很多遍,但是看了又忘,忘了又看,感觉特崩溃。总结原因:知其然不知其所以然。幸得只言片语,突然就明白了,在此写下感悟。只是从个人角度写的,本人愚钝,写的应该非常啰嗦且本来就是简单的不值得拿来写的事情,如有如此请略过和包涵。Attention机制—其然为什么这么设计----其所以然人是如何通过注意力快速做决断的?看到与理解Transformer模型深度解读自原创 2021-03-06 09:01:07 · 265 阅读 · 2 评论 -
Internal_Covariate_Shift现象以及Batch Normalization的可视化
文章目录序Internal Covariate Shift不加BN可视化加了BN后序本文注重对Internal_Covariate_Shift和Batch_Normalization的可视化。什么是Internal_Covariate_Shift和Batch_Normalization请参考Internal Covariate Shift与Normalization。Internal Covariate Shift参考网上的博文,个人理解如下:Covariate Shift指源空间和目标空间的输原创 2020-07-12 23:53:33 · 1018 阅读 · 1 评论 -
TF2.0_LSTM_Seq2seq_BeamSearchDecoder_实战教程
文章目录1. 序2. 代码编写3. 部分Bug1. 序此篇教程只有代码实现,没有理论部分。适合有一定的理论基础,对TF2.x有一些了解的人。如果不了解没关系,传送门:tensorflow2.0入门与实战 2019年最通俗易懂的课程如果看不懂可以在找找其他的相关视频。2. 代码编写TF2.x具备热执行(eager_execution)和自动建图(auto-graph)两个新的特性,与1.x的版本有很大的不同,提高了易用性。eager_execution允许我们像使用python一样,写一句执行一句原创 2020-05-24 16:33:35 · 1642 阅读 · 4 评论