![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
Mr_tianyanxiaobai
这个作者很懒,什么都没留下…
展开
-
方差与偏差的意义与推导过程
基本概念偏差(bias):预测结果与真实值之间的差异,排除噪声的影响,偏差是某个模型输出的样本误差。偏差是模型无法准确表达数据关系所导致的,比如模型过于简单,非线性的数据关系采用线性模型建模,偏差较大的模型是错的模型;方差(variance): 模型方差不是针对某一个模型输出样本进行判定,而是指多次模型输出的结果之间的离散差异,注意这里写的多次模型,即同一模型不同时间的输出结果方差较大。方差是由训练集的数据不够导致,一方面量 (数据量) 不够,有限的数据集过度训练导致模型复杂。即过拟合。总结: B原创 2020-12-12 15:44:36 · 1847 阅读 · 0 评论 -
GIt 远程命令集合
o/master:一个标记,记录本地仓库与远程仓库的差别点git fetch:从远程仓库中下载项目。该命令共做了下面两点:从远程仓库下载本地仓库中缺失的提交记录更新远程分支指针(如 o/master)git pull:获得远程数据更新本地工作(即先抓取再合并本地分支)效果和 git fetch,git merge o/master 等同git push :上传变更到远程仓库中git pull --rebase :先将远程项目拉下来,然后将远程的记录和本地记录进行合并(不是用merge.原创 2020-10-26 21:30:01 · 124 阅读 · 0 评论 -
Git 的本地学习
基础命令git branch:提交分支git branch newname oldname :修改分支名字git commit:向当前分支提交记录git checkout name:切换到指定分支git checkout -b name:创建新的分支并且切换过去git merge xxx:将xxx合并到当前分支下中git rebase: 推荐使用的分支合并方法,该方法不像merge只改变指针的指向,而是将原分支复制一份,直接使其直接成为当前分支的父节点。高级命令HEAD 的分离HE原创 2020-10-24 19:57:11 · 86 阅读 · 0 评论 -
元学习-李宏毅老师课程笔记
训练数据:38400 张测试数据:12000 张检验数据:9600 张原创 2020-10-10 09:58:12 · 586 阅读 · 0 评论 -
模型的正则化
Why & What 正则化首先,从使用正则化解决了一个什么问题的角度来看:正则化是为了防止过拟合, 进而增强泛化能力。正则化项正则化其实就是在原始的损失函数中添加一个正则化项,用于约束 www 的取值空间。正则化项一般都是单调递增函数,函数模型越复杂,正则化值越大。这样设置风险函数,就可以很好地保证在模型的识别上去的情况下,模型的复杂度不会太大。进而保证了模型的泛化能力,防止过拟合。正则化参数正则化项中的标量 λ\lambdaλ 一般被称之为正则化参数:λ=σ2σw2\lambd原创 2020-10-07 16:53:28 · 1202 阅读 · 0 评论 -
torchnet.meter
torchnet.meterMeters provide a way to keep track of important statistics in an online manner. TNT also provides convenient ways to visualize and manage meters via the torchnet.logger.MeterLogger clas...原创 2020-03-01 16:56:54 · 425 阅读 · 0 评论 -
torchvision.transforms.functional.affine 图形的映射
torchvision.transforms.RandomAffine(degrees, translate=None, scale=None, shear=None, resample=False, fillcolor=0)## 图像的映射转换#角度,旋转的度数angle = 0#平移,随机采样的水平移位和垂直移位translate = (random.uniform(0,100),r...原创 2020-02-24 15:41:18 · 3087 阅读 · 0 评论 -
h5py 入门
简介hdf5 文件能够存储两种类型的数据对象:数据集(dataset),组(group)dataset 可以类比为数组:和numpy的数组差不多group可以类比为字典:有键(key)和值(value)。group中可以存放dataset或者其他的group。”键”就是组成员的名称,”值”就是组成员对象本身(组或者数据集)。文件的读写#读文件import h5pyf=h5py.F...原创 2020-02-12 10:56:25 · 696 阅读 · 0 评论 -
numpy 解决输出有省略号的问题
import numpy as np# 保证所有数据能够显示,而不是用省略号表示,np.inf表示一个足够大的数np.set_printoptions(threshold = np.inf) # 若想不以科学计数显示:np.set_printoptions(suppress = True)...原创 2020-02-09 16:22:34 · 761 阅读 · 0 评论 -
多个mask图像的叠加
使用 np.dstacka = np.arange(12).reshape(3,4)b = np.arange(12).reshape(3,4)img_trans = np.dstack(s)img_trans.shape利用dstack加载图片,并返回numpy型数组def get_files(dirs): if len(dirs) == 1: img =...原创 2020-02-08 16:57:42 · 2285 阅读 · 0 评论 -
自己实现降维之MDS
首先自己写了一个,然后还有一个是sklearn的# *_*coding:utf-8 *_*import numpy as npfrom sklearn.manifold import MDSclass down: def MDS_my(self,attributes,compents): m,n = attributes.shape dist ...原创 2019-07-29 16:42:53 · 579 阅读 · 1 评论 -
自己实现降维之PCA
PCA降维,具体步骤如下:1.对所有样本去中心化处理(标准化):每个属性的值减去该列属性值的平均值2.计算样本的协方差矩阵 X*X.T3.对协方差矩阵进行特征分解4取最大的n个特征值我自己写的代码如下: def PCA_my(self, attributes, compents): #对x进行去中心化处理 ss = StandardS...原创 2019-07-29 17:06:01 · 258 阅读 · 0 评论 -
自己实现降维之核主成分分析(KPCA)
许多机器学习算法都假定输入数据是线性可分的。感知器为了保证其收敛性,甚至要求训练数据是完美线性可分的。然而,在现实世界中,大多数情况下我们面对的是非线性问题,针对此类问题,通过降维技术,如PCA和LDA等,将其转化为线性问题并不是最好的办法。核函数与核技巧 其实很简单,就是将线性不可分的数据映射到更高维度上去使其线性可分。换句话说,利用核PCA,可以通过非线...原创 2019-07-29 19:47:06 · 3191 阅读 · 1 评论 -
自己实现降维之LLE(局部线性嵌入)
中心思想:假定样本点X(i)的坐标能够通过它的领域样本X(j),X(k),X(l)的坐标线性组合,而重构出来如(也就是将某列用其他列线性表出)也就是说,投影前后线性关系的权重系数w2,w3,w4是尽量不变或者最小改变的:公式推导:目标函数:x(i)对应的低维空间坐标均Z(i):将30带入29中,化简式子得到最终的目标函数:...原创 2019-07-30 16:33:19 · 869 阅读 · 1 评论 -
降维总览
原创 2019-07-30 16:43:42 · 100 阅读 · 0 评论 -
DeepLearning5-.2学习笔记
词汇表征概念(词嵌入): 提出背景:每个词需要用一个向量来进行表示,而传统的想法便是建立一个字典,然后用一个向量来表示某个词在这个字典中的所用(这里需要使用one-hot编码),如下图:假设这个字典的长度为10000,那么我们就需要用一个长度为10000的向量来表示这个词,但是如果这样表示的话,可以看出Man,woMan相差比较近。King,Queen也相差比较近,但是Orange...原创 2019-08-11 15:44:24 · 164 阅读 · 0 评论 -
验证码论文概述-----中文篇
《 高效的验证码识别技术与验证码分类思想》-2009年总结这是一篇很早拟解决的问题结果数据集来源解决问题的方法其他原创 2019-08-21 10:43:19 · 1157 阅读 · 1 评论 -
【解密Peter机器学习公式】:一步步进行SVM公式推导之间隔
看着Peter在《机器学习》中给出的SVM分类公式表示一脸懵逼,便决定了用自己的语言来对这些公式进行一次推导完成实验报告的同时,也算是为了以后如果忘了推导过程,可以马上翻出来看看。正所谓SVM有三宝:间隔,对偶和技巧。那么接下来我会对这三个关键词说说我的理解。SVM的中心思想 首先来说SVM是怎么进行分类的呢?其实简单的理解话就是划一条线将两个类分开,这条线也就是我需要利用S...原创 2019-05-29 14:11:04 · 623 阅读 · 0 评论