数学之美
Zero_to_zero1234
Be objective
展开
-
详解最大似然估计(MLE)、最大后验概率估计(MAP),以及贝叶斯公式的理解
转载一篇文章,写得很好:详解最大似然估计(MLE)、最大后验概率估计(MAP),以及贝叶斯公式的理解部分重要内容:有人对此评论:转载 2021-05-07 19:23:12 · 170 阅读 · 0 评论 -
简述无偏估计和有偏估计
参考自苏神博客:《简述无偏估计和有偏估计 》[Blog post]. Retrieved from https://kexue.fm/archives/6747作者从熟悉的方差介绍,引入无偏和有偏估计的概念原创 2020-07-28 21:04:03 · 3093 阅读 · 0 评论 -
线性回归 & 逻辑回归
推荐阅读:知乎文:浅析机器学习:线性回归 & 逻辑回归CSDN博客:线性回归与逻辑回归关键点:1、线性回归的核心构建:损失函数->优化策略->过拟合策略(这个深究可以是一个很大领域的内容)2、逻辑回归和线性回归的区别和损失函数的来源线性回归:线性回归和逻辑回归逻辑回归的损失函数...转载 2020-01-19 20:55:43 · 155 阅读 · 0 评论 -
从L1,L2正则,到KKT条件下的拉格朗日乘法到拉格朗日对偶问题
转:相对清晰的一篇博客从loss的l1,l2正则,追溯到模型复杂度衡量,追溯到不等式极值问题,以下两篇文章,可以进一步深入了解背后的数学原理L1、L2正则化和过拟合[从KKT条件下的拉格朗日乘法到拉格朗日对偶问题]...原创 2020-01-19 16:24:45 · 714 阅读 · 0 评论 -
数学之美:学习数学,是一项长期投资
对绝大多数人来说,数学是一生中学得最多的一门课程:从小学到中学,从中学到大学,包括到了研究生的学习阶段,都在学习数学。你可能会问,为什么要花这么多时间来学习数学?又为什么一定要努力学好数学呢?书到用时方恨少真的是这样!李开复博士曾经说过后悔没有多修一些数学课程,那时没有体会,当学机器学习遇到凸优化、对偶、高斯核函数、贝叶斯,才知道数学的贫乏,也正是在此时,你才会感慨数学的精妙!第一次对数学产...原创 2019-01-03 21:37:42 · 261 阅读 · 0 评论 -
PCA主成分分析与SVD奇异值分解与LSI、SVM
关于PCA、SVD、SVM、LSI之间的神秘联系,推荐几篇精文,看懂后,好好琢磨可以打通很多方面知识,关于线性代数和概率论和算法的深层关系,话不多说,如下:(一)PCA的数学原理:http://blog.codinglabs.org/articles/pca-tutorial.html(来自 CodingLabs)(二)机器学习中的数学(5)-强大的矩阵奇异值分解(SVD)及其应用ht...转载 2019-01-08 09:29:09 · 728 阅读 · 0 评论