机器学习
文章平均质量分 81
_ToDream
这个作者很懒,什么都没留下…
展开
-
学习Keras可以参考的网址
基于sklearn和keras的数据切分与交叉验证基于Keras的ResNet实现Keras实现DenseNet结构keras搬砖系列-VGG19Keras入门教程06——CapsNet胶囊神经网络详解及Keras实现Keras lstm 文本分类示例keras实现常用深度学习模型LeNet,AlexNet,ZFNet,VGGNet,GoogleNet,Resnet...原创 2019-11-25 15:46:32 · 183 阅读 · 0 评论 -
部分主流机器学习研究方向知识汇总
1、CNN(卷积神经网络)网络结构https://www.cnblogs.com/skyfsm/p/8451834.htmlLeNetAlexNetZFVGGGoogleLeNetResNetDenseNeCapsNet(胶囊网络)2、RNN(循环神经网络)网路结构one to one\one to many\many to one\many to many(2种)干货|深度...原创 2019-07-30 17:56:26 · 5795 阅读 · 1 评论 -
anaconda3激活
cmd命令行输入python会发现无法引入已经安装好的库,出现如下警告:Warning:This Python interpreter is in a conda environment, but the environment hasnot been activated. Libraries may fail to load. To activate this environment...原创 2019-06-24 00:11:01 · 17801 阅读 · 4 评论 -
以AdaBoost算法为例,详解集成学习的思想(二)
接下来介绍Boosting族算法中最著名的AdaBoost算法,其基本思想如下: 1、改变训练数据的权值或概率分布,提高前一轮弱分类器分错的样本的权值,降低分类正确的样本的权值(体现在什么地方?乘以exp())。举个例子,我们平时记单词,总是选择前一天没有记下来的单词进行强化训练。 2、如何将弱分类器组合成一个强分类器?加大分类错误率小的基分类器的权值,降低分类错误率大的基分类器的权值。 A...原创 2019-05-31 22:19:49 · 221 阅读 · 0 评论 -
以AdaBoost算法为例,详解集成学习的思想(一)
秉承在总结的过程中继续挖掘问题的心态,现在将学习到的知识做一个阶段性的总结。 本篇内容主要会讲到集成学习的思想,最后会将AdaBoost算法的思想进行简单的介绍,后期会介绍公式的推导。很多的博客都是参照的周志华教授的西瓜书和李航教授的《统计学习方法》以及相关的论文、大牛们的博客。我也不例外,但是会加入一些自己的思考,并且将里面内容的讲述顺序做一个修改。集成学习可以用“三个臭皮匠,顶个...原创 2019-05-31 22:16:31 · 551 阅读 · 0 评论 -
偏差-方差分解、损失函数和正则化
一、偏差-方差分解(以回归算法为例) 偏差-方差分解是解释学习算法泛化性能的一种重要工具。 误差是测量值与真实值之间的差值。 偏差度量了学习算法的期望预测与真实结果的偏离程度。 方差度量了同样大小的训练集的变动所导致的学习性能的变化,刻画了数据扰动所造成的影响。 噪声则表达了在当前任务上任何学习算法所能表达的期望泛化误差的下界。 因模型无法表示基本数据的复杂度而造成偏差 因模型对...原创 2019-05-31 22:15:07 · 1006 阅读 · 0 评论 -
CART分类回归树
CART分类回归树1984年提出,ID3算法1986年提出,C4.5算法1993年提出CART由特征选择、树的生成及剪枝组成。CART假设决策树是二叉树,内部结点特征取值为是和否CART使用损失函数最小作为剪枝的标准。回归树的生成:使用平方误差最小化准则。对于任意划分特征A,对应的任意划分点s,两边划分成数据集D1和D2,求出使D1和D2各自集合的均方误差最小。分类树的生成...原创 2019-05-31 22:11:34 · 360 阅读 · 0 评论 -
决策树思想介绍
分类决策树的核心思想:在数据集D中找到一个最优特征(如何找?),然后从这个特征的选值中找一个最优候选值(怎么找?一般的二分类问题不需要)根据这个候选属性,将数据集D分成若干个子数据集,然后递归上述操作,直到满足指定条件为止。 1)最优特征怎么找?信息增益、信息增益率和基尼系数 其中,信息增益和信息增益率和熵有关,熵可以用来表示系统的不确定性。决策树的思想就是利用数据存在的一些规则,不断降低数据...原创 2019-05-31 22:09:31 · 3454 阅读 · 0 评论 -
决策树与集成学习
由于机器学习涉及的方法很广,对机器学习有了一个横向宏观的把握之后,需要纵向对某一类方法进行深入的学习。 因为要研究的课题内容是有监督学习,因此选择一类有监督的学习方法进行深入的研究 。 集成学习综述(2016年10月) http://blog.csdn.net/qq_28168421/article/details/53364718目前来说机器学习的研究主要分为四个大方向: a) 通过集...原创 2019-05-31 22:03:53 · 1127 阅读 · 0 评论 -
SVM算法进阶
1、SVM理解与参数选择(kernel和C)https://blog.csdn.net/ybdesire/article/details/53915093使用SVM时,有两个点要注意:1)若使用核函数,一定要对Feature做Feature Scaling(Normalization)2)若训练集m太小,但Feature数量n很大,则训练数据不足以拟合复杂的非线性模型,这种情况下只能用li...原创 2019-05-30 17:38:06 · 511 阅读 · 0 评论 -
python计算相隔的天数并分割成每周
1、计算两个日期之间相隔的天数# 开始时间start_date = '2018-05-01'# 结束时间end_date = '2019-03-09'date_time1 = datetime.datetime.strptime(end_date, '%Y-%m-%d') # 结束时间 date_time0 = datetime.datetime.strptime(start...原创 2019-05-08 17:48:41 · 1869 阅读 · 0 评论 -
python实现互补累计概率分布、记忆性、阵发性和活跃度
import numpy as npdef grand_total(num_days): # 计算互补累积概率分布 num_days中存储的是所有的次数,总次数为sum(num_days) grand_total = [] for i in range(1, len(num_days)): a = num_days[i:] # 互补累积概率,单调递减...原创 2019-05-08 15:55:32 · 1186 阅读 · 0 评论 -
python对坐标轴进行调整
from pylab import *import matplotlib.pyplot as pltimport numpy as npfrom matplotlib.ticker import MultipleLocatorif __name__ == '__main__': x = np.linspace(-5, 5, 100) y1 = np.sin(x) ...原创 2019-05-08 15:50:38 · 6126 阅读 · 1 评论 -
一些数学分布的python展示
1、beta分布import numpy as npimport matplotlib.pylab as pltfrom scipy.stats import betaif __name__ == '__main__': a = 0.5 b = 0.5 x = np.arange(0.01, 1, 0.01) y = beta.pdf(x, a, b) ...原创 2019-05-08 15:40:03 · 518 阅读 · 0 评论 -
关于CNN(卷积神经网络)的不错的文章
1)https://blog.csdn.net/dss_dssssd/article/month/2018/09/2?CNN系列文章2)https://www.cnblogs.com/touch-skyer/p/9150039.html卷积神经网络(CNN)张量(图像)的尺寸和参数计算(深度学习)3)https://blog.csdn.net/cheneykl/article/detail...原创 2019-03-07 16:19:20 · 997 阅读 · 0 评论 -
RNN及LSTM的简单理解
由于还没有最终理解RNN和LSTM,因此只是做一下记录,后面完全理解后会将此博文进行修改,也希望各位大佬在留言区批评指正。RNN 单个时刻t的NNt-1,t,t+1时刻的NN,下标t表示时刻,x表示相应时刻下的输入,o表示相应时刻下的输出,s表示相应时刻下的状态,t时刻的输入会组合t-1时刻的状态以及t时刻的输入。 RNN会存在梯度弥散和梯度爆炸的问题,无法实现长期的记忆。因此提出原创 2018-01-24 21:54:21 · 529 阅读 · 0 评论 -
机器学习相关笔记
https://www.jianshu.com/p/005a4e6ac775 梯度提升决策树 http://blog.csdn.net/gamer_gyt/article/details/78797667 梯度提升和梯度下降算法 http://blog.csdn.net/google19890102/article/details/51746402 梯度提升决策树 http://blog.c原创 2019-05-31 22:21:18 · 129 阅读 · 0 评论 -
隐马尔可夫模型(HMM)简单总结
HMM是生成式模型,属于动态贝叶斯网络。 HMM是一个五元组 S表示状态值集合 O表示观测值集合 π表示状态值对应的概率 A表示状态转移矩阵 B表示发射矩阵 1、评估问题 已知:S O 模型λ=(π,A,B) 求:观测序列1-2-3-4出现的概率; 求:输入部分观测序列预测概率最大的下一个值 2、解码问题 已知:S O 模型λ=(π,A,B) 求:观测序列1-2-3-4对原创 2018-01-22 20:27:18 · 2878 阅读 · 0 评论