![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
我有一個夢想
IT
展开
-
转载 极大似然估计
原文章地址:https://blog.csdn.net/zengxiantao1994/article/details/72787849写的很好 欢迎去看原作者文章极大似然估计 以前多次接触过极大似然估计,但一直都不太明白到底什么原理,最近在看贝叶斯分类,对极大似然估计有了新的认识,总结如下: 贝叶斯决策 首先来看贝叶斯分类,我们都知道经典的贝叶...转载 2018-10-11 15:50:41 · 270 阅读 · 0 评论 -
正则化方法:L1和L2 regularization、数据集扩增、dropout
转载至http://blog.csdn.net/u012162613/article/details/44261657欢迎去看原作者 支持原作者正则化方法:防止过拟合,提高泛化能力在训练数据不够多时,或者overtraining时,经常会导致overfitting(过拟合)。其直观的表现例如以下图所看到的。随着训练过程的进行,模型复杂度添加,在training data上的error渐...转载 2018-10-11 20:28:07 · 270 阅读 · 0 评论 -
逻辑回归
转载至https://blog.csdn.net/zjuPeco/article/details/77165974前言逻辑回归是分类当中极为常用的手段,因此,掌握其内在原理是非常必要的。我会争取在本文中尽可能简明地展现逻辑回归(logistic regression)的整个推导过程。什么是逻辑回归逻辑回归在某些书中也被称为对数几率回归,明明被叫做回归,却用在了分类问题上,我个人认为这是...转载 2018-10-12 21:43:30 · 183 阅读 · 0 评论 -
批标准化 Batch Normalization
转载至https://www.cnblogs.com/guoyaohua/p/8724433.html欢迎去看原作者Batch Normalization作为最近一年来DL的重要成果,已经广泛被证明其有效性和重要性。虽然有些细节处理还解释不清其理论原因,但是实践证明好用才是真的好,别忘了DL从Hinton对深层网络做Pre-Train开始就是一个经验领先于理论分析的偏经验的一门学问。本文是...转载 2018-10-24 09:50:54 · 256 阅读 · 1 评论 -
范数知识
文章转载至https://blog.csdn.net/a493823882/article/details/80569888欢迎支持原作者什么是范数?我们知道距离的定义是一个宽泛的概念,只要满足非负、自反、三角不等式就可以称之为距离。范数是一种强化了的距离概念,它在定义上比距离多了一条数乘的运算法则。有时候为了便于理解,我们可以把范数当作距离来理解。在数学上,范数包括向量范数和矩阵范...转载 2018-11-05 15:08:03 · 300 阅读 · 0 评论