深度学习
东大梅西
这个作者很懒,什么都没留下…
展开
-
从神经网络说起:深度学习初学者不可不知的25个术语和概念
本文转自灯塔大数据(DTbigdata),转载需授权 人工智能,深度学习和机器学习,不论你现在是否能够理解这些概念,你都应该学习。否则三年内,你就会像灭绝的恐龙一样被社会淘汰。 ——马克·库班(NBA小牛队老板,亿万富翁) 马克·库班的这番话可能听起来挺吓人的,但道理是没毛病的!我们正经历一场大革命,这场革命就是由大数据和强大电脑计算能力发起的。 让我们花几分钟回想一下20世纪初的景象。那个时候很多人都不懂什么是电,在过去几十年,甚至几百年的时间里,人们一直沿用一种方式去做某件事情,但是突然间,好像转载 2020-06-12 11:40:14 · 326 阅读 · 0 评论 -
L0,L1,L2正则化浅析
在机器学习的概念中,我们经常听到L0,L1,L2正则化,本文对这几种正则化做简单总结。1、概念L0正则化的值是模型参数中非零参数的个数。L1正则化表示各个参数绝对值之和。L2正则化标识各个参数的平方的和的开方值。2、先讨论几个问题:1)实现参数的稀疏有什么好处吗?一个好处是可以简化模型,避免过拟合。因为一个模型中真正重要的参数可能并不多,如果考虑所有的参数起作用,那么可以对训练数据可以预测的很好,但是对测试数据就只能呵呵了。另一个好处是参数变少可以使整个模型获得更好的可解释性。2)参数.转载 2020-05-30 15:53:28 · 456 阅读 · 0 评论 -
【深度学习】深入理解Batch Normalization批标准化
Batch Normalization作为最近一年来DL的重要成果,已经广泛被证明其有效性和重要性。虽然有些细节处理还解释不清其理论原因,但是实践证明好用才是真的好,别忘了DL从Hinton对深层网络做Pre-Train开始就是一个经验领先于理论分析的偏经验的一门学问。本文是对论文《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》的导读。 机器学习领域有个很重要.转载 2020-05-26 15:18:18 · 154 阅读 · 0 评论 -
过拟合的通俗理解以及解决办法
把知乎上的回答整理整理,若有侵权,请告知本人进行整改作者:刘文博链接:https://www.zhihu.com/question/32246256/answer/83898785来源:知乎著作权归作者所有,转载请联系作者获得授权。好比你想学习追妹子。先找你表妹问喜欢什么,表妹说她喜欢干净帅气的男生,还说她喜欢周杰伦,喜欢火锅,喜欢酸菜鱼,合计一百条规矩。你规规矩矩地按照要求学习,终于符合表妹的一切要求,0...转载 2020-05-21 14:14:10 · 1199 阅读 · 0 评论 -
深度学习四大经典书籍
我们都知道现在机器学习、深度学习的资料太多了,面对海量资源,往往陷入到“无从下手”的困惑出境。而且并非所有的书籍都是优质资源,浪费大量的时间是得不偿失的。今天,给大家推荐这四本好书。1. 《Deep Learning with Python》推荐指数:★★★★☆本书自出版以来收到众多好评,因为是 Ke...转载 2020-05-02 18:28:51 · 1106 阅读 · 0 评论