机器学习
文章平均质量分 74
Vivid-victory
○( ^皿^)っHiahiahia…
展开
-
【深度学习】VGG16“迁移学习”模型实现狗的种类识别(记录笔记)
〇、内容说明接上一篇博客:一、提取数据的瓶颈特征bottleneck_features = np.load('E:/dog/DogVGG16Data.npz')train_VGG16 = bottleneck_features['train']valid_VGG16 = bottleneck_features['valid']test_VGG16 = bottleneck_features['test']这里的瓶颈特征bottleneck_features是怎么获取的?可参考keras中文文原创 2021-02-24 20:47:44 · 1077 阅读 · 3 评论 -
【深度学习】Keras自建神经网络模型实现133种狗的种类识别(记录笔记)
一、加载数据from sklearn.datasets import load_files from keras.utils import np_utilsimport numpy as npfrom glob import globimport timet0=time.time()print('显示此刻的时间:',time.strftime('%Y-%m-%d %H:%M:%S',time.localtime(time.time())))# 定义函数来加载train,test原创 2021-02-24 16:34:14 · 1646 阅读 · 1 评论 -
【Python】20Newsgroup文本分类(TF-IDF向量化,十种sklearn分类器)
数据集介绍数据集链接:http://qwone.com/~jason/20Newsgroups/(比较慢,建议Science上网)当然这里用不到这个数据集,sklearn导入会自动下载,倘若比较慢,可参考:sklearn.datasets.fetch_20newsgroups的下载速度极慢采用离线下载导入等别的方法具体实践中,稍等了一会儿就好了的。sklearn自带数据集datasets,划分好训练集和测试集了。from sklearn.datasets import fetch_20newsgr原创 2020-05-29 01:47:26 · 5357 阅读 · 0 评论 -
【Python】实训9:家用热水器用户行为分析与事件识别(所谓的神经网络,BP)
实训1清洗运营商客户数据1.训练要点(1)掌握去重的原理与方法。(2)掌握缺失值与异常值的识别与处理。2.需求说明某运营商提供了不同用户3个月的使用信息,共900000条数据,共34个特征列、1个标签列,其中存在- -定的重复值、缺失值与异常值。其字段说明如表9-17所示。3.实现步骤(1)识别与处理数据中的重复值。(2)识别与处理数据中的缺失值。(3)识别与处理数据中的异常...原创 2020-02-12 21:48:45 · 6028 阅读 · 16 评论 -
【人工智能】《人工智能技术》期末考预测考点(交流卷、预测卷)
以下所有内容仅供参考,不保证整理答案的正确性。一、判断题(20分,20题)1、“张三是一名计算机系的学生,他喜欢编程”的谓词公式表示为:computer (zhangsan) ^ like (zhangsan, programming)2、正向推理是从已知事实出发,通过规则库求得结论,也称为数据驱动方式,或从底向上的方式;反向推理是从目标出发,反向使用规则,求得已知事实,或称目标驱动,自顶向...原创 2020-01-07 17:19:28 · 3312 阅读 · 2 评论 -
【机器学习】人工智能实验:SVM分类器人脸识别(sklearn、python读图片、GridSearchCV简单应用)
一、实验基本情况介绍1、数据集介绍选取 ORL 人脸数据库作为实验样本,总共 40 个人,每人 10 幅图像,图像大小为112*92 像素。图像本身已经经过处理,不需要进行归一化和校准等工作。实验样本分为训练样本和测试样本。首先设置训练样本集,选择 40 个人前 5 张图片作为训练样本,进行训练。然后设置测试样本集,将 40 个人后 5 张图片作为测试样本,进行选取识别。数据与源代码百度网...原创 2019-12-28 10:19:42 · 6991 阅读 · 8 评论 -
【Python】实训8:企业所得税回归模型(Pearson相关系数、Lasso、灰色预测模型、SVR)
题目来源:《Python数据分析与应用》第8章 财政收入预测分析 实训部分【 黄红梅、张良均主编 中国工信出版集团和人民邮电出版社】本博客题目内容来自:QQ组合键“ctrl+alt+o”截取书本PDF文件获取的(敲题目是不能敲题目的)(这个组合键贼好用)数据集下载链接(下载后找到第8章->实训数据)数据特征预览:实训1 求取企业所得税各特征间的相关系数1.训练要点(1)掌...原创 2020-01-09 13:39:18 · 13429 阅读 · 5 评论 -
【Python】实训5:使用pandas进行数据预处理( lagrange插值、merge合并、标准化)
题目来源:《Python数据分析与应用》第5章【 黄红梅、张良均主编 中国工信出版集团和人民邮电出版社】本博客题目文字主要来自:全能扫描王文字识别转换(敲题目是不可能去敲题目的)数据集下载链接(下载后找到第6章->实训数据)实训1 插补用户用电量数据缺失值1.训练要点(1)掌握缺失值识别方法。(2)掌握对缺失值数据处理的方法。2、需求说明用户用电量数据呈现一定的周期性关...原创 2020-01-08 15:04:53 · 25191 阅读 · 11 评论 -
【Python】实训4:pandas统计分析基础(pandas基础操作)
题目来源:《Python数据分析与应用》第4章 pandas统计分析基础【 黄红梅、张良均主编 中国工信出版集团和人民邮电出版社】本博客题目文字主要来自:印象笔记OCR文字识别转换(敲题目是不可能去敲题目的)【OCR (Optical Character Recognition,光学字符识别)】数据集下载链接(下载后找到第4章->实训数据)实训1读取并查看P2P网络贷款数据主表...原创 2020-01-07 18:11:21 · 34563 阅读 · 5 评论 -
【Python】实训6:基于wine和wine_quality数据集练习sklearn构建模型方法(预处理、聚类、分类、回归)
题目来源:《Python数据分析与应用》第6章 使用 scikit-learn 构建模型 实训部分【 黄红梅、张良均主编 中国工信出版集团和人民邮电出版社】本博客题目文字主要来自:印象笔记OCR文字识别转换(敲题目是不可能去敲题目的)【OCR (Optical Character Recognition,光学字符识别)】数据集下载链接(下载后找到第6章->实训数据)实训1 ...原创 2020-01-09 11:01:51 · 42116 阅读 · 18 评论 -
【机器学习】基于SVM人脸识别算法的一些对比探究(先降维好还是先标准化好等对比分析)
一、数据集介绍可选取 ORL 人脸数据库作为实验样本,总共 40 个人,每人 10 幅图像,图像大小为112*92 像素。图像本身已经经过处理,不需要进行归一化和校准等工作。实验样本分为训练样本和测试样本。首先设置训练样本集,选择 40 个人前 5 张图片作为训练样本,进行训练。然后设置测试样本集,将 40 个人后 5 张图片作为测试样本,进行选取识别。二、对比探究实验(一)对比不同核函数...原创 2019-12-03 22:29:01 · 2179 阅读 · 0 评论 -
【Python】基于sklearn构建并评价回归模型(LinearRegression线性回归模型)
本博客主要代码基于:《Python数据分析与应用》第6章使用sklearn构建模型【 黄红梅、张良均主编 中国工信出版集团和人民邮电出版社,侵请删】(书写的确实挺不错的,推荐大家购买阅读)(而且目前全网找不到电子版的????)相关网站链接一、LinearRegression线性回归模型1、构建LinearRegression回归模型核心语句from sklearn.linear_mode...转载 2019-12-03 21:50:51 · 3365 阅读 · 2 评论 -
【Python】基于sklearn构建并评价分类模型(SVM、绘制ROC曲线等)
本博客主要代码基于:《Python数据分析与应用》第6章使用sklearn构建模型【 黄红梅、张良均主编 中国工信出版集团和人民邮电出版社,侵请删】相关网站链接一、构建SVM分类模型1、SVC分类,SVR回归支持向量机(Support Vector Machine, SVM)是一类按监督学习(supervised learning)方式对数据进行二元分类的广义线性分类器(general...转载 2019-12-03 21:32:44 · 5558 阅读 · 1 评论 -
【Python】基于sklearn构建并评价聚类模型( KMeans、TSNE降维、可视化、FMI评价法等)
本博客内容来源于:《Python数据分析与应用》第6章使用sklearn构建模型,【 黄红梅、张良均主编 中国工信出版集团和人民邮电出版社,侵请删】相关网站链接一、K-Means聚类函数初步学习与使用kmeans算法理解及代码实现k均值聚类算法(k-means clustering algorithm)其算法思想大致为:先从样本集中随机选取 k 个样本作为簇中心,并计算所有样本...转载 2019-12-03 20:58:53 · 6919 阅读 · 1 评论 -
【Python】读取sklearn数据集及常见操作记录(加载、划分、标准化、降维)
本博客内容来源于:《Python数据分析与应用》第6章使用sklearn构建模型,侵请删相关网站链接一、基本操作涉及的主要模块1、数据获取模块:sklearn.datasets2、模型选择模块:sklearn.model_selection3、数据预处理模块:sklearn.preprocessing4、特征分解模块:sklearn.decomposition二、直接上完整代码#...转载 2019-12-03 20:09:04 · 7004 阅读 · 0 评论 -
【Python】使用sklearn构建模型的基本思路记录(处理数据、聚类、分类、回归)
本博客内容来源于:《Python数据分析与应用》第6章使用sklearn构建模型,侵请删相关网站链接一、P174 任务一:使用sklearn实现数据处理和降维1、读取sklearn中自带的波士顿数据集2、用train_test_split()划分数据集3、标准差标准化4、PCA降维sklearn模块小记:1、数据获取模块:sklearn.datasets2、模型选择模块:skl...转载 2019-12-03 19:38:44 · 2225 阅读 · 0 评论 -
【机器学习】人工智能实验二:利用贝叶斯分类器实现手写数字识别
一、数据获取对于新手而言,熟练掌握各种数据的读取方式,并了解读入的数据具体存储形式及相关操作,实际上任务已经完成一大半了!之所以这么讲,主要是为了强调,数据获取数据处理的在机器学习中的重要意义!1、Python几种读取mat格式数据的方法对于怎么获取.mat最合适,以及它们之间的差别,暂时我还没搞清楚,先“搁置争议”(不求甚解),毕竟这篇博客主打的记录代码2、数据获取:数据获取见博客:...转载 2019-11-20 10:10:10 · 2219 阅读 · 0 评论 -
【机器学习】手写数字识别学习笔记(对三篇文件进行分析记录)
看了许多网站,涉及的知识也非常多(毕竟是机器学习“第一题”),真正能理解并掌握,或者说记住的内容,并不多。一、分类-MNIST(手写数字识别)1、数据集:博客的网盘链接中50多M的.mat文件获取数据方法:from sklearn.datasets import fetch_mldatafrom sklearn import datasetsimport numpy as npmn...转载 2019-11-16 19:16:18 · 612 阅读 · 0 评论 -
【机器学习】采用关联规则算法分析蔬菜涨跌规律实验(Apriori算法)
实验目的:在掌握关联规则算法的原理的基础上,能够应用关联规则算法解决实际问题。实验内容:根据实验数据,采用Apriori等关联规则发现算法,给出相关关联规则。实验要求:给出数据预处理过程、关联规则发现算法及发现关联规则,并对关联规则结果进行分析说明。实验题目:蔬菜价格相关性分析蔬菜的价格会受季节、天气等多方面因素的影响,但许多会出现同涨或者同跌等现象,请根据给出的蔬菜价格数据,采用关联规则...原创 2019-11-14 21:02:40 · 5355 阅读 · 9 评论 -
【机器学习】人工智能实验一:A*算法求解 8 数码问题(启发式搜索)(纯代码)
一、网上代码修改版:1、直接上代码:代码参考于:A*算法(解决八数码问题)#include<bits/stdc++.h>#define maxn 1010 //用于设置OPEN表和COLSE表(顺序表)结点的个数 #define N 3 //4typedef struct node { //八数码结构体 int a[N][N]; //二维数组表示八数码的主要状态 ...转载 2019-11-10 22:12:46 · 6446 阅读 · 1 评论 -
【机器学习】python使用xlrd和xlwt读写Excel文件学习笔记(解决xlwt写入日期格式错误的问题)
1、【脚本之家】python使用xlrd和xlwt读写Excel文件的实例代码# -*- coding: utf-8 -*-"""Created on Thu Nov 7 20:45:19 2019@author: 琅琊榜"""import xlrdimport xlwt#1、读取xls文件:data = xlrd.open_workbook("test.xlsx")...原创 2019-11-08 21:39:10 · 1569 阅读 · 0 评论 -
【机器学习】Apriori(关联分析算法)经典代码理解与学习笔记(Python)
1、获取数据dataSet = loadDataSet()# 构造数据def loadDataSet(): return [[1, 3, 4], [2, 3, 5], [1, 2, 3, 5], [2, 5]]2、调用apripri()函数,返回频繁项集及其对应支持度L,suppData = apriori(dataSet)# 封装所有步骤的函数# 返回 所有满足大于阈...原创 2019-11-07 16:54:02 · 2487 阅读 · 0 评论