机器学习
文章平均质量分 90
steelDK
平平无奇,躺平青年;基础知识总是学了就忘,借用平台记录一下自己科研中可能涉及到的一些知识点儿,也希望能帮到有缘人!
展开
-
问题1、图像分割预测时原始图片大小与预测图片大小不一致
以Unet网络为例1、背景2、添加灰度条3、思路与代码1、背景在进行图像分割预测的时候,我们输入网络的图片往往是正方形的(512x512,224x224甚至更小),那么预测出图片的大小也和输入网络的图片大小一样,是正方形的,怎么让预测出来的图片和原始图片长宽比例相同呢?代码与思路如下:2、添加灰度条由于在图片进入到网络之前,往往需要裁剪或者resize,那么对于原始图片是长方形的,如果裁剪,则会丢失信息,如果resize则会失真,因此添加灰度条是保证图片既不会失真也不会丢失信息的一个方法。3、思路原创 2021-04-02 18:56:55 · 5005 阅读 · 5 评论 -
图像识别pytorch入门1
目录1、基本数据Tensor1.1、Tensor数据类型1.2、Tensor之间的类型转换1.3、Tensor的创建与维度查看查看Tensor种元素总个数1.4 Tensor的索引与变形1.4.1 索引1.4.2 变形操作一:view()、resize()、reshape()函数1、基本数据TensorTensor,即张量,是PyTorch中的基本操作对象,可以看做是包含单一数据类型元素的多维矩阵。从使用角度来看,Tensor与NumPy的ndarrays非常类似,相互之间也可以自由转换,只不过Tens原创 2021-04-09 15:20:06 · 1111 阅读 · 0 评论 -
目标检测之Faster RCNN理论概述
Faster RCNN1、简介2、RCNN3、Fast-RCNN4、Faster-RCNN(1) 特征提取模块(2) RPN模块(3) RoI Pooling模块(4) RCNN模块5、总结1、简介在2014年RCNN算法问世之后,经历了众多版本的改进,但具有里程碑式意义的当属Fast RCNN与Faster RCNN算法,下面就这三个算法,按照时间顺序进行介绍。2、RCNN在RCNN出现之前,常用的物体检测流程如下:(1)首先,将图像作为输入,然后切分成不同的区域;(2)然后讲每个区域视为单独原创 2021-10-12 10:53:50 · 1728 阅读 · 0 评论 -
克里金(kriging)模型的推导详解
Kriging模型理论推导1、前言2、条件3、基础知识3.1、方差的理解3.2、概率密度函数3.3、多元正态分布4、理论推导4.1 模型建立1、前言简介:Kriging模型是一种通过已知试验点信息来预测未知试验点上响应的无偏估计模型,其最早是由南非矿业工程师D.G.Krige于1951年提出。20世纪70年代,法国的数学家G.Matheron对D.G.Krige的研宄成果进行了进一步的系统化、理论化,并将其命名为Kriging模型。1989年Sacks等将Kriging模型推广至试验设计领域,形成了基于原创 2021-10-15 16:48:56 · 23762 阅读 · 14 评论 -
3、贝叶斯优化相关理论知识
贝叶斯优化1、问题的提出2、贝叶斯基础知识3、贝叶斯优化流程3.1 高斯过程回归4、代码实战1、问题的提出① 在介绍贝叶斯优化之前,我们先来介绍一下机器学习的一般思路,机器学习可以看作是一个黑盒子模型,我们输入一个X,通过机器学习模型得到一个输出y,也即是:图中样本矩阵如下图:通过机器学习模型,我们可以给每一个特征分配一个权重w,如果有m个特征,那么就有m个权重w,这些权重可以组成一个参数矩阵W,机器学习就是通过对大量样本进行训练,更新并确定这个权重矩阵的(以三个特征为例,见下图)。② 由上原创 2021-07-27 10:44:14 · 1701 阅读 · 0 评论 -
2、机器学习中的调参:随机搜索和网格搜索
机器学习中的调参前言1、随机搜索和网格搜索2、 遗传算法前言超参数调优是机器学习中的重要一环,拿随机森林算法而言,树的个数,数的深度,剪枝参数等等需要找到最优的参数组合,超参数较少时,我们可以采用for循环遍历所有参数的可能组合,但参数很多时,最优参数的搜寻将会变得困难,本文介绍了几种常用的调参方法,后续如果学到还会更新其他调参算法。其中网格搜索法和随机搜索法采用的是sklearn中的GridSearchCV类和RandomizedSearchCV类,所用实例的数据集点击这下载,数据集为爱荷华州住房数据原创 2021-07-20 15:40:50 · 6636 阅读 · 4 评论 -
1、最小二乘回归、Lasso、岭回归
回归算法理论知识1、最小二乘回归2、Lasso回归3、Ridge岭回归4、Elastic Net 弹性网代码演示1、数据集的获取2、代码实操总结理论知识1、最小二乘回归假设有m个特征,n个样本点,则输入数据为:于是可以得到:由此我们计算得到的损失为:优化w,对w求偏导得:由此可以得到:上述公式共包含有逆矩阵,而逆矩阵存在得前提是该矩阵为满秩矩阵。但实际中得特征矩阵往往不是满秩矩阵,此时可利用加正则化的数学方法进行改进。2、Lasso回归加上一个L1范数惩罚:3、Ridge原创 2021-07-18 20:41:51 · 1342 阅读 · 1 评论 -
遗传算法的原理与python实现
遗传算法一、整体理解二、相关概念三、遗传算法大致流程四、代码解析完整版代码和结果一、整体理解遗传算法的思想就是物竞天择,适者生存,通过N代的遗传、变异、交叉、复制,进化出问题的最优解。举个简单的例子(可能不太恰当,理解就行):假设有一群猫,有一种病毒,有的猫对这种病毒免疫,而有的猫不免疫,我们想让所有的猫都具有抗病毒能力,那就将这些猫放在这种病毒环境中,则具有免疫病毒能力的猫活了下来,不具有抗病毒能力的猫死了,经过繁衍、迭代,到最后只剩下抗病的猫,因为猫把抗病毒这个优秀基因留给了后代。二、相关概念相原创 2021-04-13 22:17:12 · 2477 阅读 · 0 评论 -
Pearson相关系数
Pearson和Spearman相关系数一、皮尔逊(Pearson)相关系数二、Pearson相关系数的Python实例斯皮尔曼(Spearman)相关系数Python实例一、皮尔逊(Pearson)相关系数1、协方差能完美的解释两个变量之间相关的方向,但在解释强度上却不太行,举个例子:每个变量都是有量纲的,这里假设变量x的量纲为距离,可以是米,也可以是千米,甚至可以是光年,针对协方差的量纲问题,统一除以同样的量纲就可以搞定。正态分布标准化需要除以标准偏差,标准偏差的量纲与变量一致,这样就可以消除量纲了原创 2021-03-25 10:14:25 · 4767 阅读 · 2 评论 -
PCA中的协方差
PCA中的协方差协方差什么是特征矩阵协方差与相关系数合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入协方差记录的主要是降维算法PCA中的协方差,最近在学习PCA,对协方差这一块儿进行一个总结,方便个人复习回顾,本文为个人理解,难免会有错误原创 2020-12-24 16:10:25 · 2607 阅读 · 0 评论 -
sklearn中的降维算法(PCA)(原理相关)-1
一、维度:1、对于数组和series来说,维度就是功能shape返回的结果,shape中返回了几个数字,就是几维。2、维度指的是样本的数量或特征的数量,一般无特别说明,指的都是特征的数量。3、对图像来说,维度就是图像中特征向量的个数,特征向量可以理解为坐标轴,一个特征向量代表一维。也就是说,三维及一下的特征矩阵是可以被可视化的,三维以上的则不能。二、特征矩阵:特征矩阵特指二维,一定有行列,一个特征是一维。若将特征矩阵用pandas的DataFrame表示,形式如下: ...原创 2020-12-23 21:25:59 · 709 阅读 · 0 评论