人工智能
文章平均质量分 54
勇敢驴驴
不到一年的时间,要努力学习呀!一定要上岸上岸上岸!加油!
展开
-
人工智能与机器学习
人工智能与机器学习2023-02-27原创 2023-02-27 10:30:22 · 340 阅读 · 1 评论 -
性能评估 5 fbeta_score Fβ值
1、定义Fβ值F2分数中,召回率的权重高于精确率,而F0.5分数中,精确率的权重高于召回率。2、代码y_true=[1,1,1,1,1,0,0,0,0,0]y_pred=[0,0,1,1,0,0,0,0,0,0]print('Accuracy Score:',accuracy_score(y_true,y_pred,normalize=True))print('Precision Score:',precision_score(y_true,y_pred))prin..原创 2022-05-26 09:44:37 · 778 阅读 · 1 评论 -
性能评估 4 f1_score F1值
1、定义2/f1 = 1/查准率+1/查全率2、代码from sklearn.metrics import accuracy_score,precision_score,recall_score,f1_score,fbeta_scorey_true=[1,1,1,1,1,0,0,0,0,0]y_pred=[0,0,1,1,0,0,0,0,0,0]print('Accuracy Score:',accuracy_score(y_true,y_pred,normalize=True))pr原创 2022-05-26 09:34:07 · 111 阅读 · 0 评论 -
性能度量 3 Recall Score 查全率、召回率
1、定义查全率=TP/(TP+FN)2、代码from sklearn.metrics import accuracy_score,precision_score,recall_scorey_true=[1,1,1,1,1,0,0,0,0,0]y_pred=[0,0,1,1,0,0,0,0,0,0]print('准确率Accuracy Score:',accuracy_score(y_true,y_pred,normalize=True))print('查准率Precision Sc原创 2022-05-26 09:28:15 · 680 阅读 · 0 评论 -
性能度量 2 precision_score 查准率
1、定义计算分类结果的查准率sklearn.metrics.precision_score(真实标记集合,预测)2、代码from sklearn.metrics import accuracy_score,precision_scorey_true=[1,1,1,1,1,0,0,0,0,0]y_pred=[0,0,1,1,0,0,0,0,0,0]print('准确率Accuracy Score:',accuracy_score(y_true,y_pred,normalize.原创 2022-05-26 09:20:41 · 555 阅读 · 0 评论 -
性能度量 1 accuracy_score 准确率
1、定义计算分类结果的查准率sklearn.metrics.accuracy_score(真实标记集合,分类器对样本集预测的预测值,normalize = [True:比例,False:数量],sample_weight = 样本权重,默认为1)2、代码from sklearn.metrics import accuracy_scorey_true=[1,1,1,1,1,0,0,0,0,0]y_pred=[0,0,1,1,0,0,1,1,0,0]#准确率print('准确率',原创 2022-05-26 09:11:47 · 872 阅读 · 0 评论 -
分类模型对比计较
一、决策树——decision tree1、定义分类、预测方法,有监督的学习算法,以树状图为基础,输出结果为简单实用的规则。是一系列if-then语句。2、解决问题分类、回归。3、原理是贪心算法,即在特性空间上执行递归的二元分割,决策树由节点和有向边组成给。内部节点:一个特征或者属性。 叶子节点:一个分类。4、优点可读性强,便于理解和解释。(树的结构具有可视化); 训练所需数据少,使用开销呈指数分布,分类速度快; 易于通过静态测试来对模型进行评测; 可处理多路输出问原创 2022-05-25 23:21:37 · 466 阅读 · 1 评论 -
常见分类算法应用范围/数据要求
单一的分类算法:决策树、贝叶斯、人工神经网络、K-近邻、支持向量机和基于关联规则的分类,HMM组合分类算法:Bagging和Boostingk-近邻(kNN,k-Nearest Neighbors)算法1找出与未知样本x距离最近的k个训练样本,看这k个样本中多数属于哪一类,就把x归为那一类。模型输入要求:连续值,类别型变量需进行one-hot编码,由于是计算距离,有必要对数据进行归一化模型重要参数:K值及距离的定义优点:易于理解和实现缺点:计算量大,复杂度高,不适合实时场景转载 2022-05-25 23:22:17 · 1379 阅读 · 0 评论 -
人工智能 .cross_val_score 上边几篇全部少了“import numpy as np”
1、基础便利函数在指定数据集上运行指定学习器时,用k折交叉获取的最佳性能sklearn.model_selection.cross_val_score(<指定学习器>,X:数据集中样本集,y:数据集中标记集,cv=k折交叉生成器/None)(太多了,以后再补上)2、代码from sklearn.model_selection import cross_val_scoreimport numpy as npfrom sklearn.datasets .原创 2022-05-25 18:12:12 · 123 阅读 · 0 评论 -
人工智能 LeaveOneOut(留一法)(LOO)
1、代码n:数据集大小from sklearn.model_selection import LeaveOneOutX=np.array([[1,2,3,4], [11,12,13,14], [21,22,23,24], [31,32,33,34]])y=np.array([1,1,0,0])lo=LeaveOneOut()# lo.len(y)for train_index,test_index in lo.split(X):原创 2022-05-25 17:52:09 · 1280 阅读 · 0 评论 -
人工智能 StratifiedKFold
1、基础StratifiedKFold——执行分层采样sklearn.model_selection.StratifiedKFold(n_splits=,random_state=,shuffle=)y:样本集标记序列n:整数,数据集大小n_flods:整数k,大于等于2shuffle:布尔值,是否混洗数据random_state整数——随机数种子,否则为随机数生成器split(X[,y,groups])X:训练数据集(n_samples,n_features)y:标记信息(n_s原创 2022-05-25 17:38:47 · 439 阅读 · 0 评论 -
人工智能 K-fold(k-折交叉切分)
1、基础K-fold(k折交叉切分)是一个生成器sklearn.model_selection.folder.split(<n_splits=整数k,大于等于2>,<random_state=随机数种子or随机数生成器>,<shuffle=布尔值,True-在切分数据集前先混洗数据集>)2、代码不混洗(前边有空格,需要自己删除哟) # 数训练据集 X=np.array([[1,2,3,4], [11,12,13,1原创 2022-05-25 17:07:27 · 558 阅读 · 0 评论 -
人工智能 数据集划分
1、函数sklearn.model_selection.train_test_split(数据集[test_size测试集大小,train_size训练集大小,random_state整数——随机数种子,否则为随机数生成器],stratify数组[分层采样的标记数组]或none)返回值:一个列表,依次给出一/多个数据集划分的结果:训练集、测试集。2、代码(1)未分层X=[[1,2,3,4], [11,12,13,14], [21,22,23,24], [31,原创 2022-05-25 16:42:21 · 336 阅读 · 0 评论 -
实例——损失函数
一、0-1损失函数1,常用分类:scikit-learn:train_test_spilt(不能有交集)2,dataframe——list设计空表,用append添加,使用for循环。3,x训练,x测试,y训练,y测试=train_test_spilt(自变量,测试集占比,随机数种子)4,...原创 2022-05-25 15:07:32 · 221 阅读 · 0 评论 -
机器学习历程——人工智能基础与应用导论 专题篇(Sklearn)(2)
一、回顾概念TP:预测为正向(P),实际上预测正确(T),即判断为正向的正确率;TN:预测为负向(N),实际上预测正确(T),即判断为负向的正确率;FP:预测为正向(P),实际上预测错误(F),误报率,即把负向判断成了正向;FN:预测为负向(N),实际上预测错误(F),漏报率,即把正向判断称了负向;1、准确率Accuracy=(TP+TN)/(TP+FP+TN+FN), 即预测正确的比上全部数据。from sklearn.metrics import accuracy_s.原创 2022-04-30 17:17:26 · 218 阅读 · 0 评论 -
机器学习历程——人工智能基础与应用导论 专题篇(Scikit-learn)(1)
一、介绍1、官网是针对Python 编程语言的免费软件机器学习库 。它具有各种分类,回归和聚类算法,包括支持向量机,随机森林,梯度提升,k均值和DBSCAN,并且旨在与Python数值科学库NumPy和SciPy联合使用。英文社区:scikit-learn: machine learning in Python — scikit-learn 1.0.2 documentation中文社区:scikit-learn中文社区2、安装pip install -U scikit-learn原创 2022-04-29 23:41:13 · 732 阅读 · 0 评论 -
机器学习历程——人工智能基础与应用导论(2)(模型评估与选择)
一、基本概念1、泛化误差、经验误差泛化误差:在未来样本上的误差。经验误差:在训练集上的误差,又称“训练误差”。2、过拟合、欠拟合过拟合:指训练误差和测试误差之间的差距太大。(模型拟合程度高,在训练集上表现好,在测试集上表现差,“死记硬背”,泛化能力差)造成原因:1、训练集样本单一,样本不足;2、训练集中噪声干扰大;3、模型过于复杂。解决方案:正则化方法。(1)直接提供正则化约束的参数正则化方法,如L1/L2正则化;(2)通过工程上的技巧来实现更低泛化误差的方法,如提前原创 2022-04-29 22:12:52 · 1113 阅读 · 0 评论 -
机器学习历程——人工智能基础与应用导论(1)
教材:1、周志华《机器学习》2、郑小林 贲圣林《智能投顾 大数据智能驱动投 顾创新》一、引言机器学习是从人工智能中产生的一个重要学科分支,是实现智能化的关键。“假设用𝑃来评估计算机程序在某任务类𝑇上的性能,若一个程序通过利用经验𝐸在𝑇中任务上获得了性能改善,则我们就说关于𝑇和𝑃,该程序对𝐸进行了学习”1、机器学习与数据挖掘2、典型的机器学习过程2、机器学习工作流程数据获取——数据处理——模型训练——模型测试——模型优化二、基本术语1、数据2、任务.原创 2022-04-29 18:34:59 · 306 阅读 · 0 评论