![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 63
zoujiahui_2018
统计学博士
展开
-
深度学习笔记
文章目录循环神经网络(RNN)长短期记忆网络(LSTM&Bi-LSTM)门控循环网络(GRU & Bi-GRU)时间卷积网络(TCN)卷积神经网络(CNN)图卷积神经网络(GCN)图注意力神经网络(GAT)循环神经网络(RNN)长短期记忆网络(LSTM&Bi-LSTM)门控循环网络(GRU & Bi-GRU)时间卷积网络(TCN)卷积神经网络(CNN)图卷积神经网络(GCN)图注意力神经网络(GAT)原创 2024-01-14 20:53:57 · 494 阅读 · 0 评论 -
决策树ID3, C4.5, C5.0,CART的区别
决策树ID3, C4.5, C5.0, CART的区别原创 2023-05-11 22:14:43 · 690 阅读 · 1 评论 -
keras自定义损失函数的方法
我们可以通过编写一个返回标量并接受两个参数(即真值和预测值)的函数,在Keras中创建一个自定义损失函数。然后,我们将自定义损失函数传递给model.compile作为参数,就像处理任何其他损失函数一样。原文链接https//blog.csdn.net/miemieyang999/article/details/113498594。keras在搭建神经网络时,提供了非常多便捷的函数,这里介绍一下如何自定义神经网络损失函数的方法。...转载 2022-07-29 21:24:23 · 2614 阅读 · 0 评论 -
智能优化算法--灰狼算法
灰狼优化算法(GWO)模拟了自然界灰狼的领导和狩猎层级,在狼群中存在四种角色,α\alphaα狼负责领导是最具有智慧的在狩猎当中可以敏锐的知道猎物的位置,β\betaβ狼可以认为是军师比较具有智慧比较能知道猎物的位置,δ\deltaδ狼负责协助前两个层级的狼,最后是ω\omegaω狼负责跟从。...............原创 2022-06-15 22:15:50 · 8512 阅读 · 3 评论 -
优化算法介绍
共轭梯度法(Conjugate Gradient, CG)原创 2022-03-06 19:21:00 · 305 阅读 · 0 评论 -
R语言中实现随机森林对非线性相依数据拟合的包RandomForestsGLS
文章目录对空间数据的拟合数据生成过程参数说明实现代码和传统RF模型比较对AR(p)模型的拟合数据生成过程参数说明代码实现参考文献对空间数据的拟合数据生成过程参数说明实现代码和传统RF模型比较对AR(p)模型的拟合数据生成过程参数说明代码实现参考文献1.A. Saha, S. Basu, A. Datta. Random forests for spatially dependent data. arXiv. 2021.https://arxiv.org/p原创 2021-10-02 13:12:32 · 626 阅读 · 0 评论 -
LinearSVC与SVC的区别
LinearSVC基于liblinear库实现有多种惩罚参数和损失函数可供选择训练集实例数量大(大于1万)时也可以很好地进行归一化既支持稠密输入矩阵也支持稀疏输入矩阵多分类问题采用one-vs-rest方法实现SVC基于libsvm库实现训练时间复杂度为 o(n2)o(n^2)o(n2)训练集实例数量大(大于1万)时很难进行归一化多分类问题采用one-vs-rest方法实现LinearSVC详细说明LinearSVC实现了线性分类支持向量机,它是给根据liblinear实现的,可以用转载 2020-12-17 23:45:45 · 3986 阅读 · 3 评论 -
sklearn中分割数据集的函数
sklearn的model_selection模块提供了很多可以用数分割的类或函数,如下:需要注意的是在之前版本中这些函数在cross_validation模块中现在更改为了model_selection模块。train_test_split()的用法例子如下:说明文档:https://scikit-learn.org/stable/modules/classes.html#module-sklearn.model_selection...原创 2020-09-29 17:05:08 · 1363 阅读 · 1 评论 -
sklearn中对数据标准化的函数
在数据挖掘中,经常需要对连续型变量进行标准化(令期望为0,方差为1),以避免部分特征的方差过大,主导了目标函数。本文简述了如何使用sklearn进行特征标准化sklearn中prepressing模块封装了许多数据预处理函数,其中scale函数可用于特征标准化from sklearn import preprocessingIn [2]:import numpy as npIn [4]:]x = np.array([[1., -1., 2.], [2., 0., 0.], [0., 1.转载 2020-09-17 16:51:02 · 854 阅读 · 0 评论 -
自定义的模型如何使用GridSearchCV()来选择参数
遇到的问题本人设计了一个模型之后,想用CV方法来选择超参数。如果再编写CV的代码,有点重造轮子的味道,于是想到了sklearn.model_selection.GridSearchCV()。可是,直接套用上去出现了一些问题,主要是缺少了一些必要的函数,例如:scoring,get_params,set_params,于是我把必要的函数结构总结在了下面。只要按要求把这几个函数补上就可以使用GridSearchCV()方法了。解决方案class mymodel(): def __init__(se原创 2020-09-05 11:39:42 · 3861 阅读 · 0 评论 -
python中进行数据分割的函数
import cross_val_scorefrom sklearn.datasets import load_irisscores = cross_val_score(clf, iris.data, iris.target)原创 2020-09-03 09:51:39 · 1974 阅读 · 1 评论 -
处理不平衡数据的方法
处理不平衡数据我们可以采用欠(下)采样和过(上)采样的方法。欠(下)采样:就是从数据量较多那类样本中,随机选出与数据较少那类样本数量相同的样本,最终组成正负样本数量相同的样本集。过(上)采样:对样本中数量较少的那类样本生成算法补齐,使之达到与较多那类样本相匹配的数量,如SMOTO算法。合成新样本的策略是对每个少数类样本a,从它的最近邻中随机选一个样本b,然后在a,b之间的连线上随机选一点作为新合成的少数类样本。SMOTE算法步骤(4)重复步骤(1)、(2)和(3),通过迭代少数类别中的每一个原创 2020-08-24 17:12:20 · 686 阅读 · 0 评论 -
变量之间相关性度量方法
相关分析在数据量和维度较少时可用于数据初步探索,但对于数据量过于庞大(实际中数据维度通常也较大),可跳过此阶段,采用决策树模型对变量进行探索。原创 2020-08-24 16:41:19 · 3423 阅读 · 0 评论 -
机器学习与统计学
为什么机器学习很多时候不对模型的系数进行t检验以及F检验呢?答:因为统计检验正确性的保证是需要有数据分布假设作为前提,而机器学习模型很多时候不在于数据分布而在乎优化问题,故此机器学习不需要也不能进行统计学中的t检验或者F检验。为什么样本量大的时候适合采用机器学习的方法?答:传统统计学在处理小样本数据的时候需要数据的分布假设,但是这个假设往往并不是数据的真实分布,但在小样本的时候我们只能无可奈何地依靠假设。而样本量大的时候,样本的分布几乎是总体分布,那么直接对样本进行fitting也就相当于对总体进行f原创 2020-08-05 13:32:37 · 388 阅读 · 0 评论 -
kmeans聚类的python实现
KMeans聚类是一种常用的聚类方式,根据聚类所用到的聚类,还可以有很多变种。由于本人科研需求,发现sklearn中的KMeans函数没有我所需要的距离,故此重新实现了该算法。代码如下:from copy import deepcopyimport numpy as npimport pandas as pdclass myKMeans(): # Euclidean Distance Caculator def __init__(self,X,k,tol=1e-4,maxite原创 2020-07-16 10:34:00 · 1496 阅读 · 0 评论 -
sklearn中的一些笔记
LR(logist regression)函数形式:sklearn.linear_model.LogisticRegression(penalty='l2', dual=False, tol=0.0001, C=1.0, fit_intercept=True, intercept_scaling=1, class_weight=None, random_...原创 2020-03-26 18:45:09 · 223 阅读 · 0 评论 -
二分类问题中的评价指标
一些定义阳性(Positive, P),指样本中阳性的个数,P=TP+FNP=TP+FNP=TP+FN阴性( Negtive,N),指样本中阴性的个数,N=TN+FPN=TN+FPN=TN+FP假阳性(False Positive, FP),指预测中将阴性预测为阳性的个数假阴性(False Negtive, FN),指预测中将阳性预测为阴性的个数假阳性率(False Positive ...原创 2020-04-12 22:42:24 · 1235 阅读 · 0 评论