![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
其他
暮雪成冰
这个作者很懒,什么都没留下…
展开
-
用python开启flask web服务时,你只需要本机访问,那ip只要不设置为0.0.0.0就可以,正常访问就好
用python开启flask web服务时,(1)你只需要本机访问,那ip只要不设置为0.0.0.0就可以,正常访问就好(2)如果你需要外网访问,ip需要设置为0.0.0.0,此时,在本机上访问需要使用默认的127.0.0.1(也就是你不设置ip时默认的ip),在外网上访问则需要使用你本机的ip,不要使用0.0.0.0————————————————版权声明:本文为CSDN博主「Cha...转载 2020-01-15 02:23:40 · 2011 阅读 · 2 评论 -
机器学习:衡量线性回归法的指标(MSE、RMSE、MAE、R Squared)
机器学习:衡量线性回归法的指标(MSE、RMSE、MAE、R Squared)一、MSE、RMSE、MAE思路:测试数据集中的点,距离模型的平均距离越小,该模型越精确 # 注:使用平均距离,而不是所有测试样本的距离和,因为距离和受样本数量的影响 1)公式:MSE:均方误差 RMSE:均方根误差 MAE:平均绝对误差 二、具体实现 1)自己...原创 2019-08-06 10:44:23 · 4794 阅读 · 0 评论 -
隐马尔科夫模型(Hidden Markov Model,HMM)
https://blog.csdn.net/lukabruce/article/details/82380511转载 2019-07-17 20:01:23 · 208 阅读 · 0 评论 -
adaboost、GBDT和xgboost对比
boosting用多种分类器对比效果原理学习Boosting主要就是集成学习的一种,是一种个体学习器间存在强依赖关系、必须串行生成的序列化方法。主要分为了adaboost、GBDT和xgboost这三种。 adaboost adaboost是最著名的boosting算法。开始时所有的样本的权重相同,但是经过第一轮的分类总会出现错误,将错误的样本的权重加大,减小正确样本的权重,这样...翻译 2019-07-24 15:43:21 · 595 阅读 · 0 评论 -
许多特征。如何在二维散点图中绘制决策边界呢?
在现实生活中和一些高级项目中,都会涉及到许多特征。那么,如何在二维散点图中绘制决策边界呢?面对这种情况,我认为有多种解决办法:1.利用随机森林分类器等给特征进行重要性评分,得到2个最重要的特征,然后在散点图上绘制决策边界。2.主成分分析(PCA)或线性判别分析(LDA)等降维技术可用于将N个特征嵌入到2个特征中,从而将N个特征的信息解释或减少为2个特征(n_components = 2...翻译 2019-07-24 15:21:29 · 1493 阅读 · 0 评论 -
Bagging和Boosting的概念与区别
Bagging和Boosting的概念与区别随机森林属于集成学习(ensemble learning)中的bagging算法,在集成算法中主要分为bagging算法与boosting算法,Bagging算法(套袋发)bagging的算法过程如下: 从原始样本集中使用Bootstraping 方法随机抽取n个训练样本,共进行k轮抽取,得到k个训练集(k个训练集之间相互独立,元素可以有重...转载 2019-07-23 19:51:12 · 214 阅读 · 0 评论 -
主成分分析(PCA)详细讲解
转载出处http://blog.csdn.net/zhongkejingwang/article/details/42264479什么是PCA? 在数据挖掘或者图像处理等领域经常会用到主成分分析,这样做的好处是使要分析的数据的维度降低了,但是数据的主要信息还能保留下来,并且,这些变换后的维两两不相关!至于为什么?那就接着往下看。在本文中,将会很详细的解答这些问题:PCA、SVD、特征值...转载 2019-07-18 18:04:57 · 2123 阅读 · 0 评论 -
机器学习随笔4--kNN、决策树与朴素贝叶斯
https://blog.csdn.net/d_i_k_y/article/details/80953643...转载 2019-07-07 15:20:48 · 518 阅读 · 0 评论 -
机器学习——线性回归-KNN-决策树(实例)
https://www.cnblogs.com/siplips/p/9763212.html...转载 2019-07-07 15:07:35 · 828 阅读 · 0 评论 -
KNN与决策树
KNN: 就是计算特征之间的距离,某一个待预测的数据分别与已知的所有数据计算他们之间的特征距离,选出前N个距离最近的数据,这N个数据中哪一类的数据最多,就判定待测数据归属哪一类。假如N=3,图中待测圆就属于个数最多那个:三角类总结: 1、KNN是分类数据最简单最有效的算法 2、缺点就是存储空间消耗大,计算耗时。决策树:信息增益:划分数据集之前之后信息发生的变...转载 2019-07-07 14:31:04 · 2254 阅读 · 0 评论 -
浅析机器学习中的模型选择与调参(cross validation + grid search)
对于一个预测问题,同时有多种可用的模型,每种模型有多种可用的参数。如何选择一个最合适的模型?总题过程分为2个部分: 1.对于一个模型,如何评估该模型在特定问题上的好坏? 2.选择了最好的模型后,如何选择最优的参数?对于模型的评估,我们一般使用交叉验证(cross validation)来进行评估。 在这里我们使用了k折叠法,将...转载 2019-08-19 10:53:38 · 519 阅读 · 0 评论 -
Gradient Boosting regression
Demonstrate Gradient Boosting on the Boston housing dataset.This example fits a Gradient Boosting model with least squares loss and 500 regression trees of depth 4.Out:MSE: 6.5493...转载 2019-08-06 12:44:55 · 835 阅读 · 0 评论 -
Ta-Lib用法介绍 !
一、函数索引重叠研究BBANDS Bollinger BandsDEMA Double Exponential Moving AverageEMA Exponential Moving AverageHT_TRENDLINE Hilbert Transform - Inst...转载 2019-08-15 11:47:17 · 7362 阅读 · 1 评论 -
数字货币历史行情下载
https://www.cryptodatadownload.com/data/northamerican/原创 2019-09-06 15:38:17 · 2162 阅读 · 0 评论 -
scikit-learn 梯度提升树(GBDT)调参小结
https://www.cnblogs.com/DjangoBlog/p/6201663.html转载 2019-09-06 14:24:24 · 135 阅读 · 0 评论 -
调参必备---GridSearch网格搜索
什么是Grid Search 网格搜索?Grid Search:一种调参手段;穷举搜索:在所有候选的参数选择中,通过循环遍历,尝试每一种可能性,表现最好的参数就是最终的结果。其原理就像是在数组里找最大值。(为什么叫网格搜索?以有两个参数的模型为例,参数a有3种可能,参数b有4种可能,把所有可能性列出来,可以表示成一个3*4的表格,其中每个cell就是一个网格,循环过程就像是在每个网格里遍历、搜...转载 2019-08-18 14:30:39 · 388 阅读 · 0 评论 -
机器学习(四)——模型调参利器 gridSearchCV(网格搜索)
gridSearchCV(网格搜索)的参数、方法及示例1.简介GridSearchCV的sklearn官方网址:http://scikit-learn.org/stable/modules/generated/sklearn.model_selection.GridSearchCV.html#sklearn.model_selection.GridSearchCVGridSearc...转载 2019-08-18 13:42:46 · 465 阅读 · 0 评论 -
归一化 (Normalization)、标准化 (Standardization)和中心化/零均值化 (Zero-centered)
1 概念 归一化:1)把数据变成(0,1)或者(1,1)之间的小数。主要是为了数据处理方便提出来的,把数据映射到0~1范围之内处理,更加便捷快速。2)把有量纲表达式变成无量纲表达式,便于不同单位或量级的指标能够进行比较和加权。归一化是一种简化计算的方式,即将有量纲的表达式,经过变换,化为无量纲的表达式,成为纯量。 标准化:在机器学习中,我们可能要处理不同种类的资料,例如,音讯和图片上的像素...转载 2019-08-17 16:18:34 · 900 阅读 · 0 评论 -
统计参数 SSE,MSE,RMSE,R-square 详解
0转载 2019-08-16 18:41:53 · 1779 阅读 · 1 评论 -
Python每日一记21>>>交叉验证
版权声明:本文为博主原创文章,遵循 CC 4.0 by-sa 版权协议,转载请附上原文出处链接和本声明。 本文链接:https://blog.csdn.net/weixin_44663675/article/details/88736723 ...转载 2019-08-16 14:07:27 · 216 阅读 · 0 评论 -
标准化和归一化的区别
一、是什么?1.归一化 是为了将数据映射到0~1之间,去掉量纲的过程,让计算更加合理,不会因为量纲问题导致1米与100mm产生不同。 归一化是线性模型做数据预处理的关键步骤,比如LR,非线性的就不用归一化了。 归一化就是让不同维度之间的特征在数值上有一定比较性,可以大大提高分类器的准确性。缺点:这种方法有个缺陷就是当有新数据加入时,可能导致max和min的变化...转载 2019-08-20 18:47:37 · 24796 阅读 · 0 评论 -
特征工程完全总结(Python源码)
https://www.jianshu.com/p/114385e5a757转载 2019-08-15 15:40:17 · 214 阅读 · 0 评论 -
KNN,决策树,朴素贝叶斯对比与应用
拟解决基本问题描述问题一:数据量:1000特征:每年获得的飞行常客里程数玩视频游戏所耗时间比每周消费冰淇淋公升数标签:不喜欢的人魅力一般的人 极具魅力的人问题二:垃圾邮件过滤数据量50标签:非垃圾邮件(25)垃圾邮件(25)数据准备与数据预处理(I)问题一 约会网站配对问题(1)数据归一化:可适用于KNN算法...转载 2019-07-07 13:49:11 · 4568 阅读 · 0 评论 -
机器学习 标称型和数值型概念
在监督学习(supervised learning)的过程中,只需要给定输入样本集,机器就可以从中推演出指定目标变量的可能结果。监督学习相对比较简单,机器只需从输入数据中预测合适的模型,并从中计算出目标变量的结果。监督学习一般使用两种类型的目标变量:标称型和数值型标称型:标称型目标变量的结果只在有限目标集中取值,如真与假(标称型目标变量主要用于分类)数值型:数值型目标...转载 2019-07-07 13:47:48 · 219 阅读 · 0 评论 -
SVM处理流程总结:
四、SVM处理流程总结:1、收集数据,相关性分析(比如p卡方检验),特征选择(比如主成份分析PCA)。2、归一化数据:就是根据实际要求,将数据的取值范围转化为统一的区间如[a,b],a,b为整数。(参考缩放训练和测试数据时的常见错误[附录B])3、分训练集和测试集:利用抽样技术将数据集分为训练集和测试集。抽样技术有分层抽样,简单抽样(等概率抽样)。一般训练集数量大于测试集数量,就是要保...转载 2019-07-12 17:27:54 · 6627 阅读 · 0 评论 -
上次未记得的知识点
查准率(Precision)直观理解为: 在所有预测为正例中,真正正例的比例。(有点绕,多读几遍就好)查全率(Recall)直观理解为: 在所有真实的正例中,预测为正例的比例。。...转载 2019-06-27 21:45:59 · 113 阅读 · 0 评论 -
[译] 高斯混合模型 --- python教程
https://blog.csdn.net/u012768474/article/details/95093436...转载 2019-07-08 20:11:07 · 967 阅读 · 0 评论 -
Scikit-Learn学习笔记——高斯混合模型(GMM)应用:分类、密度估计、生成模型
https://blog.csdn.net/jasonzhoujx/article/details/81947663...转载 2019-07-08 16:41:39 · 3861 阅读 · 0 评论 -
耗费时间的完美主义阻碍创新进取。
(2) 耗费时间的完美主义阻碍创新进取。Nikola Pavletich是我的博士后导师,也是对我影响最大的科学家之一,他有着极强的实验判断力和思维能力,做出了一系列包括p53、Rb、CDK complex、SCF complex、BRCA1等在内的里程碑式的研究工作,享誉世界结构生物学界,31岁时即升任正教授。1996年4月,我刚到Nikola实验室不久,纯化一个表达量相当高的蛋白Sm...转载 2019-06-27 13:30:02 · 219 阅读 · 0 评论 -
1.时间的付出。
所有成功的科学家一定具有的共同点,就是他们必须付出大量的时间和心血。这是一条真理。实际上,无论社会上哪一种职业,要想成为本行业中的佼佼者,都必须付出比常人多的时间。有时,个别优秀科学家在回答学生或媒体的问题时,轻描淡写地说自己的成功凭借的是运气,不是苦干。这种回答其实不够客观、也有些不负责任,因为他们有意忽略了自己在时间上的大量付出,而只是强调成功过程中的一个偶然因素,这样说的效果常常对年轻学生造...转载 2019-06-27 13:29:55 · 230 阅读 · 0 评论 -
python中 x[:,0]和x[:,1] 理解和实例解析
x[m,n]是通过numpy库引用数组或矩阵中的某一段数据集的一种写法,m代表第m维,n代表m维中取第几段特征数据。通常用法:x[:,n]或者x[n,:]x[:,n]表示在全部数组(维)中取第n个数据,直观来说,x[:,n]就是取所有集合的第n个数据,举例说明:x[:,0][python]view plaincopyimportnumpyasnp ...转载 2019-07-08 15:58:48 · 6970 阅读 · 0 评论 -
机器学习算法总结(九)——降维(SVD, PCA)
机器学习算法总结(九)——降维(SVD, PCA) 降维是机器学习中很重要的一种思想。在机器学习中经常会碰到一些高维的数据集,而在高维数据情形下会出现数据样本稀疏,距离计算等困难,这类问题是所有机器学习方法共同面临的严重问题,称之为“ 维度灾难 ”。另外在高维特征中容易出现特征之间的线性相关,这也就意味着有的特征是冗余存在的。基于这些问题,降维思想就出现了。 降维方法有很多,而且分为线...转载 2019-07-01 17:08:55 · 544 阅读 · 0 评论 -
机器学习中的训练集、验证集和测试集
在有监督(supervise)的机器学习中,数据集一般被分成2~3个,即:训练集(train set) 、验证集(validation set) 测试集(test set)。三个集合的定义为:Training set:A set of examples used for learning, which is to fit the parameters [i.e., weights] of ...转载 2019-06-26 22:14:23 · 956 阅读 · 0 评论 -
中签必备!科创板打新的6个关键问题,你都弄明白了?
本周四(6月27日),科创板第一只股票华兴源创迎来网上网下申购日,下周二(7月2日)睿创微纳和天准科技两只科创板新股也将进行网上网下申购。眼看打新盛宴即将开场,你确定自己完全准备好了吗?想要成功中签科创板新股,并且让自己的打新收益最大化,以下6个问题投资者们得赶快自查一下是否真的弄明白了!1.科创板交易权限开通了没有?这是一个类似电脑不能开机请先检查电源是否插好的问题:很基础,但总...转载 2019-06-25 10:05:56 · 1738 阅读 · 0 评论 -
SVM的基本概念
先介绍一些简单的基本概念:分隔超平面:将数据集分割开来的直线叫做分隔超平面。超平面:如果数据集是N维的,那么就需要N-1维的某对象来对数据进行分割。该对象叫做超平面,也就是分类的决策边界。间隔:一个点到分割面的距离,称为点相对于分割面的距离。数据集中所有的点到分割面的最小间隔的2倍,称为分类器或数据集的间隔。最大间隔:SVM分类器是要找最大的数据集间隔。支持向量:...转载 2019-07-12 17:35:26 · 616 阅读 · 0 评论 -
svm(svc&scr)
SVM是机器学习中分类和回归的算法之一,中文译为支持向量机。SVM用于分类,名称为SVC,用于回归,名称为SCR转载 2019-07-12 17:36:24 · 744 阅读 · 0 评论 -
Python super() 函数
转载 2019-07-11 17:32:03 · 102 阅读 · 0 评论 -
CTR 预测理论(九):Boosting 集成算法中 Adaboost, GBDT 与 XGBoost 的区别
https://blog.csdn.net/Dby_freedom/article/details/81975255最近总结树模型,尝试将主流 Boosting 实现方式做一个分析汇总,文中部分内容借鉴了知乎答...转载 2019-07-06 19:05:28 · 364 阅读 · 0 评论 -
分类和回归的区别
输入变量与输出变量均为连续变量的预测问题是回归问题;输出变量为有限个离散变量的预测问题成为分类问题;其实回归问题和分类问题的本质一样,都是针对一个输入做出一个输出预测,其区别在于输出变量的类型。分类问题是指,给定一个新的模式,根据训练集推断它所对应的类别(如:+1,-1),是一种定性输出,也叫离散变量预测;回归问题是指,给定一个新的模式,根据训练集推断它所对应的输出值(实数)是多少,是一...转载 2019-07-06 15:34:15 · 332 阅读 · 0 评论 -
adaboost、bagging、boosting的区别
Bagging和Boosting 概念及区别Bagging和Boosting都是将已有的分类或回归算法通过一定方式组合起来,形成一个性能更加强大的分类器,更准确的说这是一种分类算法的组装方法。即将弱分类器组装成强分类器的方法。首先介绍Bootstraping,即自助法:它是一种有放回的抽样方法(可能抽到重复的样本)。1、Bagging (bootstrap aggregating)...转载 2019-07-06 15:14:01 · 542 阅读 · 0 评论