![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
枇杷鹭
留下学习的痕迹。
展开
-
“强化学习说白了,是建立分布到分布之间的映射”?数学角度谈谈个人观点
“强化学习说白了,是建立分布到分布之间的映射。” 我从没有听过别人提这样的观点,这让我静下心来,去再次思考强化学习的数学假设。 我将在此对这个观点进行分析。原创 2020-10-27 16:55:01 · 1192 阅读 · 0 评论 -
GPU:上的了AI,下的了游戏 | 简谈计算机图形学、深度学习与硬件的“三角关系“
我并不满足于游戏本身,而是想要了解 游戏机制 以及 图像渲染背后的原理 ,幸运的是目前明确了学习方向。此外,笔者在大学中接触到了深度学习,并将其作为自己目前解决问题的主要工具之一。这二者都与 GPU 这个硬件有着直接关系。那么,“本是”用于打游戏“玩具”,缘何与深度学习有关呢?笔者想在此锻炼自己的表达能力,浅谈图形渲染与深度学习中的“原理”与“数学”。原创 2020-10-26 19:00:16 · 767 阅读 · 0 评论 -
【解决方案】pytorch中loss变成了nan | 神经网络输出nan | MSE 梯度爆炸/梯度消失
最近在跑一个项目,计算loss时用了很普通的MSE,在训练了10到300个batch时,会出现loss tensor([[nan nan nan nan]]类似的情况。对这个异常的loss进行梯度下降,会导致net的输出变为nan。在网上查了解决方案,都不好用。原创 2020-06-29 01:58:15 · 13059 阅读 · 6 评论 -
深度学习/云计算 - 【学生党】【GPU】16个云服务器资源大汇总
笔者近期参加一些深度学习、数据科学类的比赛,本地算力已不足以满足需求,需要更强的计算资源。本着“货比三家”的原则,笔者搜罗了互联网上的云计算资源,主要对其经济性进行汇总如下。原创 2020-06-12 19:49:21 · 34779 阅读 · 10 评论