统计与ML
机器如何学习呢?
dlvector
be better man,基础不牢,地动山摇!
展开
-
模型融合_stacking&blending
个人理解:1.stacking堆叠法,更像是在特征维度上扩展,使用不同的模型获得不同的特征,堆在一起获得新的输入特征。2.blending融合法,更像是在特征的时间维度来多次开发特征,先被一套模型预测,得到的结果,作为另一套模型的输入,一直套娃,得到最终的输出。stacking,自己的理解blending,自己的理解...原创 2020-12-28 02:53:26 · 333 阅读 · 0 评论 -
最小二乘法:三种变形
普通的最小二乘法加权最小二乘法另一种推导:常用的一些权重:这些权重基本的特征是:低误差(高精度),权重大;高误差(低精度),权重小。迭代参考:最小二乘、加权最小二乘(WLS)、迭代加权最小二乘(迭代重加全最小二乘)(IRLS)加权最小二乘法...原创 2020-10-22 20:19:55 · 2087 阅读 · 0 评论 -
数据处理中的单位化,归一化和标准化
单位化单位化就是 ξ-> ξ/||ξ|| 的操作这里||ξ1||=2,p1=ξ1/||ξ1||之所以叫单位化就是因为这步运算之后||p1||=1。向量单位化之后,向量的模等于1。实现单位化只需要各元素除以向量的模,单位化后内积为1。归一化就是将训练集中某一列数值特征(假设是第i列)的值缩放到0和1之间。标准化就是将训练集中某一列数值特征(假设是第i列)的值缩放成均值为0,方差为1的状态。如下所示:小结:1.归一化和标准化的相同点都是**对某个特征(column)进行缩放(sca原创 2020-09-11 15:42:08 · 5904 阅读 · 0 评论 -
概率论:魏布斯分布Weibull cumulative distribution function
概率密度函数probability density function(pdf):累积分布函数(Cumulative Distribution Function),又叫分布函数。CDF:应用场景:1.生存统计,2.开始结尾事件。参考资料:statistic handbookwblcdf matlab原创 2020-09-09 11:05:30 · 1096 阅读 · 0 评论 -
常用矩阵定义概念
1. 托普勒斯矩阵(Toeplitz matrix)一维情况下,行响亮不断的向右一定一格形成的循环矩阵。2. 双块循环矩阵(doubly block circulant matrix)这是卷积核展开之后,加速与图像卷积过程。因为是两行两行一起循环,所以叫做双块循环。参考链接:卷积神经网络CNN理论到实践(4) ...原创 2020-08-31 14:39:49 · 798 阅读 · 0 评论 -
PRML开篇
《PRML》,接触机器学习的人,肯定都听过,早也买好了书,但是就是没有时间来看,其实就是懒。前几天刚好在matlab的仓库中看到了这本书的代码汇总,期望结合代码实践,把这本书系统的看一下,一定要坚持下来。全篇的目录:绪论概率分布回归模型分析分类的线形模型神经网络模型核方法稀疏机图模型混合模型和EM算法近似推断采样方法连续潜在变量顺序数据组合模型全篇内容看起来是很多,很综合的,慢慢走,都会有。参考链接:PRML代码实现python版本:https://github.co原创 2020-07-25 10:17:30 · 233 阅读 · 0 评论 -
resnet.children()的输出
在查看FPN的网络的时候,看见要使用ResNet的.children(),不太清楚这个输出是什么,就自己整理了一下。pytorch Module里的children()与modules()的区别输出的结果如下:sequential里面分别是【3,4,6,3】个bolck,每一个block就是一个基本的残差模块。输出的全文:[Conv2d(3, 64, kernel_size=(7, ...原创 2020-02-06 23:21:32 · 4888 阅读 · 0 评论