一些写的很好的博客(持续跟新)

虽然说学习知识强调系统性,也就是完整的看书敲代码,但是有些博客也很值得学习。记录一下自己看过的博客。

  1. 数据预处理
    https://blog.csdn.net/qq_26898461/article/details/50463052

https://blog.csdn.net/bea_tree/article/details/51519844

2 机器学习十大算法总结整理
推导: https://www.cnblogs.com/tornadomeet/p/3395593.html

思想: https://www.cnblogs.com/ECJTUACM-873284962/p/7399456.html

4.详解机器学习中的熵、条件熵、相对熵和交叉熵
https://zhuanlan.zhihu.com/p/35379531

5 损失函数改进之Large-Margin Softmax Loss (未读)
https://blog.csdn.net/u014380165/article/details/76864572

6 梯度下降优化算法综述
https://blog.csdn.net/google19890102/article/details/69942970
adam算法

7 tensor张量的解释

8 mini_bach_
https://blog.csdn.net/kebu12345678/article/details/54917600

9
数学之美番外篇:平凡而又神奇的贝叶斯方法
http://mindhacks.cn/2008/09/21/the-magical-bayesian-method/

10 范数
上图中,蓝色的圆圈表示原问题可能的解范围,橘色的表示正则项可能的解范围。而整个目标函数(原问题+正则项)有解当且仅当两个解范围相切。从上图可以很容易地看出,由于2范数解范围是圆,所以相切的点有很大可能不在坐标轴上(感谢评论区@临熙指出表述错误),而由于1范数是菱形(顶点是凸出来的),其相切的点更可能在坐标轴上,而坐标轴上的点有一个特点,其只有一个坐标分量不为零,其他坐标分量为零,即是稀疏的。所以有如下结论,1范数可以导致稀疏解,2范数导致稠密解。那么为什么不用0范数呢,理论上它是求稀疏解最好的规范项了。然而在机器学习中,特征的维度往往很大,解0范数又是NP-hard问题,所以在实际中不可行。但是用1范数解是可行的,并且也可以得到稀疏解,所以实际稀疏模型中用1范数约束。至此,我们总结一下,在机器学习中,以0范数和1范数作为正则项,可以求得稀疏解,但是0范数的求解是NP-hard问题; 以2范数作为正则项可以得到稠密解,并且由于其良好的性质,其解的定义很好,往往可以得到闭式解,所以用的很多。

作者:凌空
链接:https://www.zhihu.com/question/20473040/answer/175915374

11.统计学
抽样分布(正态分布的前世今生)
点估计和区间估计
假设检验

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值