深度学习
文章平均质量分 59
sysylar
这个作者很懒,什么都没留下…
展开
-
r3det 配环境避雷指南(pytorch版)
r3det环境配置,避雷指南。原创 2021-11-18 11:13:14 · 1771 阅读 · 1 评论 -
deeplearningbook中文版来了,屌炸天!
这本书的中文版来袭,太赞了!http://www.deeplearningbook.org/下载在这里,在这里!太毕了!原创 2017-04-17 00:24:17 · 8004 阅读 · 0 评论 -
【odds and ends】均方差和均方误差
均方差:评价一组数据的波动情况。均方误差:评价预测模型与实际样本的吻合程度。原创 2017-12-02 18:12:12 · 614 阅读 · 0 评论 -
参数初始化
转自:http://blog.csdn.net/u012526120/article/details/491536830. 引言在主成分分析与白化一节中介绍了如何对输入数据进行预处理,在这节中介绍与之类似的另一个问题,参数初始化(Weight Initialization)。在模型训练之初,我们不知道参数的具体分布,然而如果数据经过了合理的归一化(normali转载 2017-12-18 16:51:13 · 548 阅读 · 0 评论 -
激活函数
转自:http://blog.csdn.net/cyh_24/article/details/50593400日常 coding 中,我们会很自然的使用一些激活函数,比如:sigmoid、ReLU等等。不过好像忘了问自己一(n)件事:为什么需要激活函数?激活函数都有哪些?都长什么样?有哪些优缺点?怎么选用激活函数?本文正是基于这些问题展开的,欢迎批评指正!(转载 2017-12-19 15:14:26 · 212 阅读 · 0 评论 -
数据的feature scaling
刚开始还研究啥是归一化、啥是标准化,网上说啥的都有。当看到feature scaling这个概念之后,才算是把这个问题搞清楚。目前的理解:对数据进行feature scaling的目的(在基于梯度下降的模型),让梯度更均匀,避免梯度小的方向更新缓慢,梯度大的方向不容易收敛。防止最终解被数值大的特征所主导。 转载:准化(normalization)是将数据按比例缩放,使之落入一个小的...转载 2018-08-05 15:33:45 · 434 阅读 · 0 评论 -
十分钟入门PCA主成分分析
在数据建模当中我们经常会听到一个词叫做降维,首先咱们先来唠一唠数据为啥要降维呢?最主要的原因还是在于一方面使得我们需要计算的量更少啦,想象一下一个100维的数据和一个10维数据计算的速度肯定是不一样的,另一方面如果我们的数据中有很无关特征,这些对结果看起来没什么促进的作用,那我们就干脆把有价值的拿出来,因为他们才是决定模型的关键!第一个强调的关键点:PCA是一种无监督算法,也就是我们不需要...转载 2018-08-05 17:55:53 · 572 阅读 · 0 评论