自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(52)
  • 收藏
  • 关注

原创 光流估计概念和算法

光流就是物体和观测者之间的互相运动亮度变化的速度矢量,下图两张图片表示了光流的原理。

2024-01-24 11:54:06 546

原创 项目实战:自动驾驶之方向盘操纵

根据汽车前方摄像头捕捉的画面,控制汽车方向盘转动的方向和角度,这是自动驾驶要解决的核心问题。这个项目主要是通过使用深度神经网络解决一个回归问题。不同于分类、识别场景,回归问题中神经网络输出的是一个连续的值。通过这个项目的学习,可以将神经网络用于通过人脸判断年龄,美颜指数等领域。在这个项目里,还可以学到图像增强的技术,用于提高网络的性能。在真实的场景中是一个结合的结果,下图是数据收集系统:CAN bus是汽车的控制总线,这个设备可以读摄像头的数据传到硬盘上。

2023-12-17 17:30:44 334

原创 EPICS Base 和许多未捆绑的 EPICS 扩展和支持模块

网址:https://epics-controls.org/epics-open-license/

2023-12-06 17:05:04 91

原创 将txt文件数据读入矩阵的简单方法(python3.8)

实例程序:from numpy import *A=zeros((8,19),dtype=float) #先创建一个8*19的全零矩阵A,并将数据设置为float类型f=open('f.txt')lines=f.readlines() #将全部数据读到一个lines中A_row=0 #表示矩阵的行,从0开始for line in lines: list=line.strip('\n').split('\t') A[A_row:]=list[0:19] A_

2022-01-07 16:09:33 1387

原创 dict数据结构在保存为csv数据类型时,如何克服ValueError: arrays must all be same length异常?已解决

import pandas as pda={'a1':[1,2,3,4],'a2':[2,3],'a3':[3,4,5,6,7,8,9]}print(pd.DataFrame.from_dict(a,orient='index').T)这里我添加了**.T**转置,可以将键值对的键作为列名;输出: a1 a2 a30 1.0 2.0 3.01 2.0 3.0 4.02 3.0 NaN 5.03 4.0 NaN 6.04 NaN NaN 7

2021-09-28 15:52:38 349

原创 如何快速提取二维数组的不连续数据

代码import numpy as np a=np.array([[1,2,3,4,5],[2,3,4,5,6],[12,23,34,56,54]])print(a.take([1,3,4],1))print(a.take([1,3,4],1).take([0,1],0))结果[[ 2 4 5] [ 3 5 6] [23 56 54]][[2 4 5] [3 5 6]]归纳a.take([1,3,4],1):抽取维度1的第1,3,4位置的元素,通常1表示列。take([

2021-09-13 20:42:09 536

原创 如何暴力转置dict类型的DataFrame结构数据?

继上次数据分析代码由于dict类型的键Key太多,保存数据时,效果并不理想。新需求:在已有dict 数据格式前提下,将key 和 values 转置,以达到更好的保存数据的。代码import pandas as pd import numpy as np import os file_path=r"G:\HEPS_NAMI\results" #存放所有文件名file_list=[]#存放所有子文件夹下对应的文件名file_dict={}for iroot,idirs,ifiles

2021-09-13 16:27:07 164

原创 python如何简单粗暴的遍历文件夹中的子文件夹并读取某特定名称的.csv类型文件

python如何简单粗暴的遍历文件夹中的子文件夹并读取某特定名称的.csv类型文件一言不合上代码:import pandas as pd import os import numpy as np file_path=r"F:\results"#存放所有文件名file_list=[]#存放所有子文件夹下所对应的文件名file_dict={}for iroot,idirs,ifiles in os.walk(file_path): if not idirs: fil

2021-09-12 20:52:02 581

原创 python给csv文件添加表头

话不多说,上代码:import pandas as pd import numpy as np data=pd.read_csv(r'C:\2020_12_21_16_43_01_energy_scan_crl.csv',header=None,names=['E','n1','n2','n3','n4','n5'])data.to_csv('2020_12_21_16_43_01_energy_scan_crl.csv',index=False)注意:index无表头时,不能是False,否

2020-12-22 10:47:19 12064 2

原创 数据分析2_特征编码和标签编码的区别

1 类别特征编码类别特征编码和标签编码区别:特征编码:1,顺序编码:OrdinalEncoder()2,独热编码:OneHotEncoder()标签编码:1, 二值编码:LabelBinarizer()2,标签编码:LabelEncoder()不要混淆。1.1 特征编码:示例1:伪代码from sklearn.preprocessing import OrdinalEncoderimport pandas as pd #1,导入数据file_path=r" "fd=pd.read

2020-08-29 22:21:20 1487

原创 数据分析1_缺失值插补

1 基本概念1.1 按比例缩放 MinMaxScaler1.2 标准差缩放 StanderScaler1.3 稀疏矩阵的缩放 MaxAbsScaler–有0的矩阵不适合用实例import numpy as npfrom sklearn.preprocessing import MinMaxScaler #等比例缩放#1导入数据x_train = np.array([ [1,2,5], [-1,5,2], [-2,4,8], [3,-5,-7] ])#

2020-08-28 15:28:01 840

原创 总结

K选大了,容易过拟合;小了,容易欠拟合。线性回归的重点是:线性回归的推导(一种是梯度下降的推导,一种是最小二乘的推导)逻辑回归是一个重点(当不知道用什么算法的时候,先用逻辑回归),机器学习中,特征越多,越能描述一个事物多重线性:相关性很大小规模数据:几万,几十万都算小规模pysparkspark(pyspark)处理大规模数据集随机森林更多的用来去噪声,选特征;算法,模型处理的好坏,跟数据有很大关系。数据一定要预处理。svm用的不是很多数据结构 图的结构+谱聚类(tensorflow)自行

2020-05-21 17:13:19 425

原创 运营商客户流失预警建模与精准挽留

客户流失属于流程类的项目客户流失分析建模功能实现框架流程spass,spark,都可以做评估分类相对来说,提高查全率选分类

2020-05-19 18:50:06 486

原创 腾讯移动app广告转化率预估

题目瞄述:计算广告是互联网最重要的商业模式之一,广告投放效果通常通过曝光,点击和转化各环节衡量,大多数广告系统受广告效果数据回流的限制只能通过曝光点或点击作为投放效果的衡量标准开展优化。(转化:买东西就是转化)腾讯社交广告(http://ads.tencent.com)发挥特有的用户识别和转化跟踪数据能力,帮助广告主跟踪广告投放后的转化效果,基于广告转化数据训练转化率预估模型(PCVR,predicted conversion rate),在广告排序中引入PCVR因子优化广告投放效果,提升ROIpr

2020-05-19 16:52:21 1118

原创 小额贷款

参考网上的例子;dataset.copy().drop([‘y’,’_col10’],aixs=1)—删除表格中的列模型存储:sklearn.externals.joblibload:加载;dump:存储

2020-05-19 12:16:23 202

原创 机器学习分类综合案例

数据清洗;特征工程;缺失值填补;分类。na_values["?"]—空数据特别大,不适合放在内存里面处理,不适合用pandas处理pandas中的describe()可以将数据所有特征显示出来,describe()显示的是数字特征,非数字特征加上include=[‘0’]默认前5行。head(5)子图作用:将每一个特征尽可能的表现出来对所有特征有一个大的认知missingno查看确实值,中间画白色横线的都有缺失目标:了解有哪些特征;了解这些特征与目标之间的关系缺失值:要么去除;要么填补。填

2020-05-18 17:23:49 2764 1

原创 Pipeline一体化处理过程(了解)

数据集网站国内网站: 天池大数据竞赛中的O2O很厉害,卷商的数据.sklearn.preprocessing.Imputer是做数据处理的,不过目前已经弃用

2020-05-17 17:21:27 708

原创 正则化

过拟合的产生:噪声;复杂模型拟合数据正则化----简单的模型来拟合复杂的数据什么是正则化?—对它做一个限制,使其在一定 的范围内。高次项是包含低次项的;w要尽可能的小找最优解:就是找这个圆和之前的求解过程中相交的这个点。正则化可能会导致误差大,但是泛化性能会好。N:取平均 2:w^2中的2landa/N:N可有可无,可以设置lamda=lamda/N正则化圆的大小是由lamda决定的。下面是Ridge回归逻辑回归:1/(1+exp(-z))中z就是线性回归,可以在z中加入正则化

2020-05-17 12:35:36 369

原创 主成分分析(PCA降维)

降维:LDA—了解SVD—了解PCA—重点表示向量的时候是需要确定一组基的。基的模长是1降维目标:尽量在投射点上分散,不重合;重合会丢失很多信息。减去均值好处:5条数据都平面直角坐标系内方差值越大越分散协方差—算相关性补充:线性代数特征值,特征向量知识eig:可以协方差矩阵的特征值和特征向量有协方差矩阵可以直接求出特征值和特征向量降维:SVD;LDA。与PCA结果有区别...

2020-05-16 21:51:15 724

原创 基于Bagging与boosting的算法4---XGBoost的应用

参考xgboost官网 xgboost官网查看公式推理。(难)还有一个特征:xgboost可以在一定程度上进行并行了解Adaboost-参数:import pandas as pd from sklearn.ensemble import AdaBoostClassifierfrom sklearn.model_selection import GridSearchCV,train_test_splitimport matplotlib.pyplot as plt df =pd.re.

2020-05-16 12:04:54 370

原创 基于Bagging与boosting的算法3---GBDT

他也是一棵提升树第四部分:总结百度:机器学习中损失函数及其梯度每步优化一个损失函数加法模型:每次在损失上增加,减小损失。决策树既可以做分类,也可以做回归回归问题的提升树,算最小均方差就可以了。知道就可以GBDT是一个提升树—处理数据量比较大的问题,通过GBDT处理原始数据(梯度提升树,可以对数据进行分类,将分类好的数据交给逻辑回归,GBDT+LR例子)gbdt+lr参考网上GBDT+LT的代码。...

2020-05-12 12:35:08 359

原创 基于Bagging与boosting的算法2---AdaBoost

弱分类器—后一个在前一个的基础上提升误差越小,权重越大W_t(i)每个样本的权重样本权重更新的计算—错误样本,增加权重。错的才计算误差,正确的不计算误差错误的,权重提高;但不代表每次都抽到错误的。权重越大,被抽到的概率,越高https://scikit-learn.org/stable/在api里面搜索:Adaboost.参数自己调。...

2020-05-11 22:39:52 120

原创 基于Bagging和boosting算法 1---随机森林

bagging的特征:随机有放回的抽样;用随机森林做决策不能选择最优属性,只能选择随机属性。随机森林的基分类器是决策树;随机森林不能用最佳属性做节点选择,随机选择;k决定属性的个数,在k个属性中选择最优的;—这种方式可以防止每次取最优,但是k不能等于整个属性集。cart是用基尼指数衡量的,也可以用信息熵。cart造随机森林的时候是没有剪枝的。不剪枝意味调参数随机森林缺点:可解释性差;容易发生过拟合;随机森林代码:参考https://scikit-learn.org/stable/森林和决策树进

2020-05-11 17:43:55 742 1

原创 集成学习3_Stacking和Blending

Stacking部分stacking了解将训练集分成5个部分,进行交叉验证,每次会得到一个新的结果,将新的结果作为一个新的特征,然后又把新的特征当作训练集,进行第二轮的学习.上面是a1,下面是b1stacking就是栈的意思—训练一个,就压栈,最后会得到一个新的训练结果。—stacking想法Blending部分...

2020-05-10 22:27:28 453

原创 集成学习2_boosting

boosting的重要性和bagging一样,甚至比bagging更重要。bagging所有模型都能同时运行;boosting只能运行一个模型。

2020-05-09 22:39:21 97

原创 集成学习1_bagging

集成学习介绍如何预测结果:投票(取众数),平均法,加权平均。目的:提高分类准确率反馈—错误的东西高级集成技术bagging非常重要。bagging思想很重要最终的结果:取他们之间的 投票(众数)T一般情况默认取10;x是测试数据,c1是训练完以后的模型,不是学习模型为什么要求“不稳定”的分类?—如果稳定,分类都差不多。bagging干什么事?–将10个模型全部列出来。bagging的思想:从原始的数据集中随机抽取10个数据集;–有放回的抽取。构建了10颗决策树,注意:bagging示例中

2020-05-09 21:51:25 343

原创 朴素贝叶斯算法

样本属于某一类别的最大概率独立同分布用sklearn去求解贝叶斯(bayes)参考:https://scikit-learn.org/stable/高斯处理连续值波努力处理二分类数据不平衡的数据集—正类和负类的比例不一样

2020-05-09 17:06:07 136

原创 svm算法

支持向量机(理论)svm:找出最好的线分开找到最大间隙的算法叫做:优化如何将二维投射到三维——核函数kernellingsvm是的中间的2d最大范数就是求向量的模不用考虑中间2d有多大,都可以把两类设置成+1和-1.宽是d的问题。拉格朗日乘子法线性svm优化KKT条件——广义的拉格朗日乘子法了解smo非线性分类将2维空间映射到5维空间,w^t是5维向量,b是第6维一维空间不可分映射到高维空间,不一定可分;要找到合适的函数才可分。高维空间映射可以通过低围函数变化得到高维表达

2020-05-08 19:53:47 447

原创 sklearn的聚类实现

参考https://scikit-learn.org/stable/sklearn.cluster.KMeans;sklearn.cluster.dbscan;调参数——min_samples,eps;注意:叶子决定树的深度当样本比较大,通常用MiniBachKMeans;当样本比较小,通常用KMeans,和Difference.总结:其实就是knn...

2020-05-08 10:19:51 290

原创 基于密度的聚类DBSCAN(理论部分)

并不是在边界上的点就是边界点出发—表示方向;可达—够得着从P到q密度可达,p和m两个互相之间都是直接密度可达,如果密度可达则一定密度相连没分出来...

2020-05-06 21:26:35 317

原创 层次方法:agnes+DIANA算法

合并和分裂还有其它算法

2020-05-06 14:53:41 2455

原创 P(39):k-medoids算法

对于任意的样本点都有这4种情况产生p到现在中心点的距离-p到原来中心点的距离TC_ac:a被c替换的总代价;C_AAB:A这个点原来属于A这个中心后来属于B这个中心...

2020-05-05 16:12:28 236

原创 常用聚类方法kmeans

k个簇中心,平均法重新计算各个簇中心,簇心几乎不移动。输入:簇的数;数据集;输出:k个簇方法:从数据集中找出k个对象当作原始的簇心;import numpy as np a=np.array([(3,4),(3,6),(7,3),(4,7),(3,8),(8,5),(4,5),(4,1),(7,4),(5,5)])lines=""for i in a: for j ...

2020-05-04 20:49:37 394

原创 聚类的简单概述

提纲:真正的聚类算法有很多:几十种。面试经常会遇到:k-means算法和DBSCAN算法,还有一个是谱聚类。聚类分析概述:相似于knn(有监督学习);聚类是无监督学习。聚类—无监督分类方法(无训练集和训练过程),根据相似度来分类;关键点:1,相似度;2,多少类别。聚类一般来做初分类划分法重点是k-means;谱聚类:以图像的方式进行聚类相似性计算方法-d...

2020-05-02 22:41:32 223

原创 继‘决策树总结’之后的sklearn_决策树

分类算法实战:参考机器学习官网:https://scikit-learn.org/stable/modules/classes.html备注:该笔记不全,代码不能运行,只供复习需要,以后有时间,补全代码。限制树的参数:max_depth; min_samples_split;并不是叶子节点越多也好,要合适。还有max_leaf_nodes:最大叶子节点也可以去设自学图形化工具:grap...

2020-05-02 11:45:08 171

原创 决策树总结

决策树基本概念:针对应用场景,误差有些重要,有些不重要(误差要求不同)。什么是归纳学习?什么是演绎?混淆矩阵:准确率,差错率为什么会出错?—过拟合决策树用好了,有规则;用不好,过拟合。分类算法实战:画混淆矩阵的ROC曲线:...

2020-04-30 17:00:40 217

原创 决策树算法4:CHAID

原理:卡方计算(例子)”无数据“#如何使用卡方检测相关度from sklearn.feature_selection import SelectKBest,chi2import pandas as pd file='data.csv'df=pd.read_csv(file,encoding='gbk') #数据本身X=df.iloc[:,:-1].values ...

2020-04-30 15:38:27 8804

原创 决策树3:基尼指数--Gini index(CART)

原理:既能做分类,又能做回归。分类:基尼值作为节点分类依据。回归:最小方差作为节点的依据。节点越不纯,基尼值越大,熵值越大方差越小越好。总体的基尼值:0.343## 代码实践#整个c4.5决策树的所有算法:import numpy as npimport operatordef creatDataSet(): """ outlook-> 0:sunn...

2020-02-28 21:02:32 16308 1

原创 决策树算法2:(增益比率C4.5)

#算法原理最重要的是第一个多个分裂点?多分法,多叉决策树。1:0.88;2:0.918;3:0.954;······众数;概率值—缺失值将缺失值当作单独分类,进行计算。### C4.5简单实践#整个c4.5决策树的所有算法:import numpy as npimport operatordef creatDataSet(): """ outlook-&gt...

2020-02-24 15:45:57 655

原创 决策树算法一:hunt算法,信息增益(ID3)

决策树入门决策树是分类算法中最重要的算法,重点决策树算法在电信营业中怎么工作?为什么叫决策树?因为树的叶子节点是我们最终预判的结果。决策树如何来?根据训练样本建立。问题1:为什么费用变换率放第一个?根据特征建决策树,会有n棵树,找出最优树。问题2:当我们特征是连续值的时候,到底从哪里开始切分?连续值要改为离散的。问题3:决策树能不能做回归决策树例子:不同的决策树对我们判定的...

2020-02-02 23:12:17 6680

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除