机器学习
学习笔记
Spikeeee-
消磨到死的那些希望的亡灵:苍白、凄惨、哭的哀伤。
展开
-
【pandas】DataFrame 数据处理方法汇总
读取csv文件:data2 = pd.read_csv('data2(1).csv',encoding='gbk')读取Excel文件:dm = pd.read_excel(path+ "2021MCM_ProblemC_ Images_by_GlobalID.xlsx");数据连接:data = pd.merge(ds,dm);数据筛选:从’Lab Status’列中选取值为’Negative ID’的行;dN = data[data['Lab Status'].isin(['原创 2022-02-15 14:22:55 · 1604 阅读 · 0 评论 -
【matplotlib】图像绘制方法汇总
头文件:import matplotlib.pyplot as pltfrom mpl_toolkits.axes_grid1 import host_subplotimport mpl_toolkits.axisartist as AAfrom pylab import mplmpl.rcParams['font.sans-serif'] = ['FangSong']mpl.rcParams['axes.unicode_minus'] = False直方图绘制:示例代码:labels原创 2022-02-15 14:01:58 · 971 阅读 · 1 评论 -
【Sklearn】k-means & k-means++
头文件:from sklearn.model_selection import train_test_splitfrom sklearn.cluster import KMeansfrom sklearn.datasets import make_blobsfrom sklearn import metrics输入格式为:kmd = np.array(kmd,dtype = 'float')print(kmd);K-means代码:k_means = KMeans(init='k-m原创 2022-02-15 13:48:09 · 919 阅读 · 0 评论 -
构造交叉检验(循环估计)数据集
交叉验证(Cross-validation)主要用于建模应用中,例如PCR、PLS回归建模中。在给定的建模样本中,拿出大部分样本进行建模型,留小部分样本用刚建立的模型进行预报,并求这小部分样本的预报误差,记录它们的平方加和。交叉验证的基本思想是把在某种意义下将原始数据(dataset)进行分组,一部分做为训练集(train set),另一部分做为验证集(validation set or test set),首先用训练集对分类器进行训练,再利用验证集来测试训练得到的模型(model),以此来做为评价分类器原创 2021-09-08 22:55:12 · 149 阅读 · 0 评论 -
数据标准化(归一化)
数据标准化(归一化)处理是数据挖掘的一项基础工作,不同评价指标往往具有不同的量纲和量纲单位,这样的情况会影响到数据分析的结果,为了消除指标之间的量纲影响,需要进行数据标准化处理,以解决数据指标之间的可比性。原始数据经过数据标准化处理后,各指标处于同一数量级,适合进行综合对比评价。以下是两种常用的归一化方法:一、min-max标准化(Min-Max Normalization)也称为离差标准化,是对原始数据的线性变换,使结果值映射到[0 - 1]之间。转换函数如下:其中max为样本数据的最大值,min原创 2021-09-06 12:08:37 · 714 阅读 · 0 评论 -
向量微积分
机器学习里经常用到标量和向量、向量和向量的求导,其实只是把向量对应位置的元素进行求导。但是,这些元素的组织方式有两种,分别是分子布局和分母布局,二者并无本质上的差别,只是结果相差个转置。这两种布局都存在,初学者常常混淆。例:求∂y∂x\frac{∂y}{∂x}∂x∂y,其中y是n维列向量,x是标量。两种布局容易混淆,建议选择自己习惯的布局即可。这里我们选择分子布局进行后面的说明。符号约定:小写粗体:值为向量;大写粗体:值为矩阵;小写斜体:值为标量。以a、b、c、d表示和x无关的函数,u=u(.原创 2021-05-08 17:47:07 · 653 阅读 · 2 评论 -
卷积张量维度计算
卷积层(Conv Layer)定义如下:O=输出图像的尺寸I=输入图像的尺寸K=卷积层的核尺寸N=核数量S=移动步长P=填充数输出图像尺寸的计算公式如下:O=I−K−2PS+1O=\frac{I-K-2P}{S}+1O=SI−K−2P+1输出图像的通道数等于核数量N池化层(MaxPool Layer)定义如下:O=输出图像的尺寸I=输入图像的尺寸S=移动步长PSP_SPS=池化层尺寸输出图像尺寸的计算公式如下:O=I−PsS+1O=\frac{I-P_s}{S}原创 2021-05-08 15:44:55 · 641 阅读 · 4 评论 -
Pytorch - 图像识别之数字识别(附详细注释)
使用了两个卷积层加上两个全连接层实现本来打算从头手撕的,但是调试太耗时间了,改天有时间在从头写一份详细过程看代码注释,参考了下一个博主的文章,但是链接没注意关了找不到了,博主看到了联系下我,我加上代码相关的问题可以评论私聊,也可以翻看博客里的文章,部分有详细解释Python实现代码:import torchimport torch.nn as nnimport torch.optim as optimfrom torchvision import datasets, transforms.原创 2021-05-08 15:40:09 · 2344 阅读 · 14 评论 -
信息量和熵、KL散度、交叉熵损失函数
1.引言在使用pytorch深度学习框架做多分类时,计算损失函数通常会使用交叉熵损失函数nn.CrossEntropyLoss()2. 信息量和熵信息量:它是用来衡量一个事件的不确定性的;一个事件发生的概率越大,不确定性越小,则它所携带的信息量就越小。假设XXX是一个离散型的随机变量,其取值集合为XXX = x0,x1,,,xnx_0,x_1,,,x_nx0,x1,,,xn,其概率分布函数为p(x)=Pr(X=x),x∈Xp(x) = Pr(X = x),x\in Xp(x)=Pr(X=原创 2021-05-07 23:37:31 · 477 阅读 · 1 评论 -
Pytorch 学习笔记
pytorch源码:https://pytorch.org/docs/stable/index.html二维卷积:激活函数:nn.ReLU(): max(features, 0)池化层:class torch.nn.MaxPool2d(kernel_size, stride=None, padding=0, dilation=1,return_indices=False, ceil_mode=False)容器:nn.Sequential()全连接层:归一化:...原创 2021-04-30 16:02:46 · 118 阅读 · 1 评论 -
深度学习(4) - 卷积神经网络
学习文章:https://zybuluo.com/hanbingtao/note/485480(在移动端可以看到图片,在pc上就不行,有大佬知道什么原因吗)代码在补原创 2021-04-29 22:10:30 · 244 阅读 · 0 评论 -
深度学习(3) - 神经网络和反向传播算法
反向传播算法其实就是链式求导法则的应用!!!属实是妙,以及Bengio这句话:激活函数的意义:如果不用激活函数,每一层输出都是上层输入的线性函数,无论神经网络有多少层,输出都是输入的线性组合,这种情况就是最原始的感知机(Perceptron)。如果使用的话,激活函数给神经元引入了非线性因素,使得神经网络可以任意逼近任何非线性函数,这样神经网络就可以应用到众多的非线性模型中。sigmoid函数:导数:令 y = sigmoid(x)则 y’ = y * ( 1 - y )神经网络:神经原创 2021-04-25 23:22:41 · 304 阅读 · 1 评论 -
深度学习(2) - 线性单元和梯度下降
学习文章:https://www.zybuluo.com/hanbingtao/note/433855原文链接好像图片挂了,简书上的链接:https://www.jianshu.com/p/982bf265f6d4?utm_campaign=maleskine&utm_content=note&utm_medium=seo_notes&utm_source=recommendation高数课不该睡觉之:和的导数等于导数的和链式求导法:调用matplotlib库时奇怪报错的原创 2021-04-25 15:17:33 · 138 阅读 · 0 评论 -
深度学习(1) - 感知机
二分类的线性分类模型,输入为实例的特征向量,输出为实例的类别。其实就是用数据不断拟合一个线性函数的算法学习文章:https://www.zybuluo.com/hanbingtao/note/433855参考代码:from functools import reduceclass Perceptron(object): # 初始化 输入参数个数 激活函数 w 和b def __init__(self, input_num, activator): """原创 2021-04-24 23:02:44 · 153 阅读 · 0 评论