机器学习
文章平均质量分 52
!!!
AI AX AT
这个作者很懒,什么都没留下…
展开
-
机器学习——特征选择和降维(sklearn)
目录1. 移除低方差特征1.1 参数(Parameters)1.2 应用1.3 常用的方法2. 单变量特征选择2.1 SelectKBest2.1.1 参数2.1.2 常用的方法2.1.3 应用2.2 SelectPercentile2.2.1 参数2.2.2 常用的方法2.2.3 应用2.3 SelectFpr2.3.1 参数2.3.2 常用的方法2.3.3 应用2.4 SelectFdr2.4.1 参数2.4.2 常用的方法2.4.3 应用2.5 SelectFwe2.5.1 参数2.5.2 常用的方法原创 2021-08-11 17:45:29 · 1624 阅读 · 0 评论 -
机器学习——XgBoost特征筛选
目录1. 什么是Xgboost2. Xgboost的优点2.1 正则化2.2 并行处理2.3 灵活性2.4 缺失值处理2.5 剪枝2.6 内置交叉验证3. Xgboost模型详解3.1 Xgboost能加载的各种数据格式解析3.2 Xgboost的模型参数3.21 通用参数(General Parameters)3.22 tree booster参数3.23 Linear Booster参数3.24 学习目标参数4. Xgboost基本方法和默认参数5. 模型训练6. 模型预测7. 保存模型8. 加载模型9原创 2021-08-06 17:08:46 · 12241 阅读 · 6 评论 -
机器学习实战——逻辑回归(sklearn实现)
数据来源:请点击这里先研究清楚数据。代码:import numpy as npfrom matplotlib import pyplot as pltimport pandas as pdimport seaborn as snsfrom sklearn.model_selection import train_test_splitfrom sklearn.preprocessing import StandardScalerfrom sklearn.linear_model import原创 2021-07-30 21:18:23 · 294 阅读 · 0 评论 -
机器学习实战——线性回归(sklearn实现)
数据来源:请点击这里代码:import matplotlib.pyplot as pltimport numpy as npimport pandas as pdimport seaborn as snsfrom sklearn.svm import SVRfrom sklearn.preprocessing import scalefrom sklearn.neural_network import MLPRegressorfrom sklearn.ensemble import Ran原创 2021-07-30 20:58:44 · 229 阅读 · 0 评论 -
机器学习实战——knn(sklearn实现)
数据来源:请点击这里代码:from sklearn.metrics import precision_score, recall_score, f1_score, accuracy_scorefrom sklearn.model_selection import train_test_splitfrom sklearn.preprocessing import scaleimport numpy as npimport pandas as pdimport matplotlib.pyplot原创 2021-07-30 20:12:41 · 443 阅读 · 0 评论 -
机器学习模型评估标准及sklearn实现方法
目录分类模型评估标准错误率与精度(accuracy)查准率(precision)、查全率(recall)与F1-scoreROC曲线、AUClog-loss回归模型评估平均绝对误差(MAE)平均平方误差(MSE)均方根误差(RMSE)R-squared分类模型评估标准错误率与精度(accuracy)错误率和精度是分类任务中最常用的两种性能度量,既适用于二分类任务,也适用于多分类任务。错误率是分类错误的样本数占样本总数的比例,精度则是分类正确的样本数占样本总数的比例。from sklearn impo转载 2021-07-29 21:53:11 · 708 阅读 · 0 评论 -
深度学习自制、自定义数据集
深度学习自制、自定义数据集数据有点大,仅供参考,主要是代码。数据来源kaggle# 引进待会要用的包import os.pathimport pandas as pd# 训练集绝对路径traindir = r"C:\Users\AIAXIT\Desktop\DeepLearningProject\Project\plant-seedlings-classification\train"# 列出dir目录下的目录和文件fileList = os.listdir(traindir)#pri原创 2021-07-08 23:27:47 · 862 阅读 · 5 评论 -
机器学习入门-数据下采样 np.random_choice
机器学习入门-数据下采样 np.random_choicenp.random_choice(array, len) 进行随机的数据选择,array表示抽取的对象,len表示抽取样本的个数。数据的下采样是对多的数据进行np.random.choice 随机的抽取,抽取出于少的样本相同的索引个数,将两组索引进行合并,从原始数据中重新取值。# 进行数据的下采样negtive_len = len(data[data.Class==1])negtive_index = data[data.Class==1]转载 2021-05-28 19:51:39 · 338 阅读 · 0 评论 -
python数据预处理之将类别数据转换为数值的方法
python数据预处理之将类别数据转换为数值的方法通过get_dummies方法来转换。import pandas as pdfrom io import StringIOcsv_data = '''A,B,C,D1,2,3,45,6,,80,11,12,'''df = pd.read_csv(StringIO(csv_data))print(df)#统计为空的数目print(df.isnull().sum())print(df.values)#丢弃空的print(df.d转载 2021-05-23 13:25:33 · 656 阅读 · 0 评论 -
Python学习笔记 -loc和iloc的用法与区别
Python学习笔记 - loc和iloc的用法与区别如果我要查看全部数据,则直接输入df如果我们要看表头,那就输入:df.columnspandas索引dataframe的索引中,有三个函数可以用于选择数据loc(): 使用index来选择数据 (based indexing)iloc():使用整数索引来选择数据 (positional indexing)ix(): iloc()和loc()的混合 (已废弃,不推荐使用)首先介绍loc()语法:loc [ :转载 2021-05-23 13:20:41 · 1921 阅读 · 0 评论 -
《机器学习实战》第二章k-近邻算法源码错误纠正
《机器学习实战》第二章k-近邻算法源码错误纠正修改前这是原来的样子:这是原来项目的样子:修改后这是它们长大后的样子原因程序语句要调用 datingTestSet2.txt 这个文件,但这个文件没有和 createFirstPlot.py 程序在同一级,所以要把 datingTestSet2.txt 复制到 createFirstPlot.py 所在的文件夹下,同时记得把 datingTestSet.txt (这个文件运行时错误)改成 datingTestSet2.原创 2021-04-07 16:37:35 · 159 阅读 · 0 评论