机器学习
Lifelrving
脆弱的人才会四处游说自己的不幸,坚强的人只会不动声色地愈渐坚强
展开
-
使用Keras的记录
我一般常用的是PyTorch,但是也会用Keras。这里记录一下Keras中的一些使用细节。1.model对象有个fit方法,fit方法里的参数是这样的:fit(x=None, y=None, batch_size=None, epochs=1, verbose=1, callbacks=None, validation_split=0.0, validation_data=None, shuffle=True, class_weight=None, sample_weight=None, init原创 2020-08-13 10:25:43 · 312 阅读 · 2 评论 -
Pytorch和Keras如何保存模型
一、Pytorch保存模型1.只保存参数及其加载:torch.save(model.state_dict(),path)再次加载:torch.load_state_dict(torch.load(path))model.eval()2.保存整个model及加载:torch.save(model,path)再次加载:model = torch.load(path)model.ecal()3.只加载某一层的参数:conv1_weight_state = torch.load(’./mod原创 2020-05-26 11:39:55 · 2423 阅读 · 0 评论 -
关于pytorch的几个坑
1.test_loader = DataLoader(dataset=dataset_test,batch_size=20,shuffle=False,num_workers=4)在CPU上跑这段代码运行不了,方法num_workers设置为0,或者不改在GPU上跑也是可以的2. 记录loss的时候,loss.data[0]或者loss.item()都是可以的,其次pytorch使用Variable跟踪变量(4.0后合并为Tensor),也就是直接使用loss,那么pytorch认为其还在参与运算,其在原创 2020-05-21 22:23:23 · 206 阅读 · 0 评论 -
Pytorch广播机制与matmul函数
1.pytorch的广播机制与numpy类似,当两个tensor逐元素相乘时(两个tensor的size必须相同),会遇到前后tensor的size不同,此时便需要广播机制了。广播机制条件:其中任意一个tensor必须至少有一个维度要么相等,从两个tensor的size末尾开始比较,要么其中一个为1,要么其中一个不存在,满足其一即可。如:在pytorch中,*表示逐元素相乘,而@是矩阵乘积,但是对于高维tensor,@不再适用,尤其是对于size大小还不同的两个张量,pytorch还有一个函数:mu原创 2020-05-14 15:26:29 · 2093 阅读 · 2 评论 -
深度学习——BatchNormalization layer
神经网络在训练过程中往往会遇到一些问题:问题1: 随着网络训练,浅层的权重发生变化,导致深层的输入变化很大。因此每层必须根据每批输入的不同分布重新调整其权重。这减缓了模型训练。如果我们可以使层的输入分布更相似,那么网络可以专注于学习类别之间的差异。不同批次分布的另一个影响是梯度弥散。梯度弥散是一个大问题,特别是对于S形激活函数(sigmoid)。如果g(x)表示sigmoid激活函数,随着 |x...原创 2020-03-31 17:16:01 · 632 阅读 · 0 评论 -
scikit-learn
特征工程和预处理fit和transform是一对双胞胎不能分离的兄弟,一般用fit方法训练完训练集后,再次调用transform方法作用于该训练集或测试集,特征的预处理和特征工程里会有很多这样的使用在不添加任何数据,而只利用分箱后的数据学习不到斜率,这是因为位于一个箱子的数据所形成的多维特征是相同的,比如说我们通过训练集学习到的模型是:w1x1+…+wnxn+b,n表示分享处理后的特征数量,...原创 2019-11-20 19:36:22 · 91 阅读 · 0 评论 -
机器学习之KNN分类
本文只是根据其他博客做的笔记,仅供自己参考(原文链接)(https://blog.csdn.net/c406495762/article/details/75172850)直接上代码,因为KNN原理并不难。from numpy import *import operatorimport matplotlib.pyplot as pltimport matplotlib.lines ...原创 2019-09-21 17:33:53 · 180 阅读 · 0 评论