自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(35)
  • 资源 (5)
  • 收藏
  • 关注

原创 svm在环形数据上的表现案列

使用sklearn中make_circles模块构建环形数据环形数据属于非线性数据:非线性数据,如月亮型数据,环形数据等from sklearn.datasets import make_circlesx,y = make_circles(100,factor=0.1,noise=.1)import matplotlib.pyplot as pltplt.scatter(x[:,0],x[:,1],c = y,s = 50,cmap = "rainbow")plt.show()

2022-01-22 23:56:47 963

原创 支持向量机基础

支持向量机:也叫支持向量网络,可以继续有监督,半监督,无监督学习有监督学习:线性二分类与回归, 非线性二分类与回归,普通连续型变量的回归,概率型连续变量的回归无监督学习:支持向量机的聚类(SVC),异常值检测半监督学习:转导支持向量机支持向量机用途最广泛领域属于线性与非线性分类用途支持向量机可以进行手写数字识别,人脸识别,文本分类,图像分类,是最接近深度学习的机器学习算法支持向量机的原理:在数据中找到超平面作为决策边界,并且使得模型的误差尽量小超平面:当前空间的子空间,比当前空间

2022-01-19 00:16:11 799

原创 聚类算法——kmeans

聚类属于无监督学习:训练数据中只有x没有y聚类算法又叫无监督分类,目标是将数据划分为有意义的簇,将所有样本按照K个质心进行聚类质心:一类坐标的平均点聚类过程:先随机选取K个质心,根据质心生成簇,计算簇的质心,找到新的质心,直到簇与质心不在变化,聚类完成聚类与分类:聚类:在未知数据上进行划分,无监督分类:已知数据进行划分,有监督聚类使用场景:使用聚类找到同类客户,实现精准营销聚类中使用距离衡量样本之间的相似性,簇中样本距离越小样本相似度高kmeans中通常使用欧几里得距离,

2022-01-12 20:26:52 3056 3

原创 使用python时间戳计算程序运行时间

使用time进行时间戳计算,使用datetime进行时间戳的转换时间戳:使用数字表示当前时间from time import timet0 = time() #表示当前时间戳for x in range(10): xtime()-t0 #使用前后时间戳对程序运行时间进行计时import datetimedatetime.datetime.fromtimestamp(t0).strftime("%Y-%m-%d %H:%M:%S") #将时间戳格式化转换..

2022-01-12 00:45:12 549

原创 特征工程—pandas进行缺失值填充

pandas中缺失值填充方法比sklearn简单,直接使用fillna方法import pandas as pddata = pd.read_csv("C:/Users/ASUS/Desktop/第四章 类别比较型图表数据/PloarRange_Data.csv")datadata1 = data["min.temperaturec"]data2 = data1.fillna(data1.median()) #使用中位数进行填充data3 = data1.fillna(data1

2021-12-17 14:25:59 987

原创 特征工程—PCA与SVD降维基础

对于一张表,维度可以是样本数量,也可以是特征数量,一般情况是特征数量特征矩阵:特指二维数据,只有行列,构成表,通常是dataframe降维:降低特征矩阵的特征数量,可以将高维数据转化为三维以下数据进行可视化,并且加快算法的运行。sklearn中使用decomposition模块进行降维操作。主成分分析 = 降维 = PCA,SVD:降维后包含特征的主成分,无用特征可能是噪音。sklearn中有两种降维方式:PCA与SVDPCA:方差是信息衡量指标,样本方差越大,包含信息量越大(方差是

2021-12-17 14:10:07 446 1

原创 数字可视化大屏边框制作

利用css方法:在大屏网页中,可在网页head或者body中插入css代码,更多的边框模板参看(488条消息) 自制展示大屏边框_普通程序员的随笔-CSDN博客_大屏边框<style> css{}</style>(注意:使用css需要利用标签与class定位,不然没有效果),注意 ::after ::before前需要定位如实列中:利用css定义<div class = "chart-container">加边框<head&gt...

2021-12-15 17:28:25 1840

原创 特征工程—数据哑变量(独热编码)

哑变量=独热编码=稀疏矩阵分类特征变量分为:名义变量,有序变量,有距变量名义变量:如门A,B,C,指数据之间毫无关联性有序变量:如小学,中学,大学,学历有高低,但不能相互计算有距变量:如分数,体重,费用等,可以通过计算得出对于有序变量可以使用编码进行处理,对于名义变量可以使用哑变量进行处理sklearn中使用OneHotEncoder模块进行哑变量:代码如下:from sklearn.preprocessing import OneHotEncoderx = data1.

2021-12-11 22:25:12 1343

原创 特征工程—编码

sklearn中只能对数值进行处理,对于文字等其他数据需要进行编码与哑变量编码:将文字等格式转换为数字,如小学,中学,大学,转换为 0 ,1 ,2对标签进行编码sklearn中编码使用:import pandas as pddata = pd.read_excel("C:/Users/ASUS/Desktop/学生表.xlsx")上述数据中,性别,省份可进行编码sklearn中使用preprocessing中LabelEncoder模块对特征一列中的标签进行编码im..

2021-12-11 22:15:35 848

原创 特征工程—sklearn中缺失值填充方法

import pandas as pddata = pd.read_csv("C:/Users/ASUS/Desktop/第四章 类别比较型图表数据/PloarRange_Data.csv")data.info() #探索数据使用sklearn中的SimleImputer进行缺失值处理,sklearn提供中位数,0,众数进行填充首先对填充方法进行实列化from sklearn.impute import SimpleImputer #导入缺失值处理库imp_mean .

2021-12-11 20:04:38 2742

原创 特征工程—数据无量纲化之归一化

在sklearn中使用preprocessing预处理与impute缺失值处理,两个模块进行数据预处理数据无量纲化:将不同量纲的数据转化到同一区间,避免某一取值的数据范围太大或太小对影响计算,加快求解速度,提高精度无量纲化包括线性与非线性线性无量纲化包括中心化与缩放处理中心化:将原数据减去某一个值,将数据平移到某位置缩放处理:将数据除以某值,将数据固定到某位置数据归一化:将数据进行缩放与收敛处理,通常将数据归一到【0-1】区间,也可以归一到其他区间,归一化后数据服从正态分布归一化

2021-12-11 17:52:53 2185

原创 特征工程—数据无量纲化之标准化

数据无量纲化基于数据中心化,数据缩放,可以分为数据标准化与数据归一化两类无量纲化方法。数据中心化:原始数据减去某值数据缩放:原始数据除以某值数据标准化:x - 均值/标准差,数据变为正态分布使用sklearn实现如下from sklearn.preprocessing import StandardScaler #导入标准化库data = [[-1,2],[-0.5,6],[0,10],[1,18]]s = StandardScaler() #实列化re = s.fit..

2021-12-11 17:28:29 749

原创 TCP网络结构

物理层:中继器、集线器数据链路层:网桥、交换机 使用以太网协议网络层:路由器,IP协议:无连接不可靠,数据传输,路由选择、差错控制(包括ICMP/ARP/RARP)传输层:网关,TCP/UDP...

2021-12-11 17:13:12 232

原创 java实现栈计算器

package 基础;public class 栈计算器 { public static void main(String[] args) { String exp = "3+2*6-2"; //创建两个栈:数栈,符号栈; Stack numStack = new Stack(10); Stack operStack = new Stack(10); //定义相关变量 int index= 0; //用于扫描 int num1 = 0; int num2 = 0;.

2021-12-08 01:04:31 464

原创 Java实现栈数据结构(Stack)

package 多线程;import java.util.Scanner;public class stack { public static void main(String[] args){ Stack stack1 = new Stack(4); String key = ""; boolean loop = true; Scanner scanner = new Scanner(System.in); while(loop){ System.out..

2021-12-08 01:03:50 183

原创 java实现约瑟夫环问题

public class link { public static void main(String[] args) { }}//定义heronode为节点class HeroNode{ public int no; public String name; public String nickname; public HeroNode next; public HeroNode(int nO, String name, String .

2021-12-08 00:35:42 267

原创 java三种容器基础——list,set,map

//list列表import java.util.ArrayList;import java.util.LinkedList;import java.util.List;public class test_list { public static void main(String[] args) { List list = new ArrayList(); //声明列表 list .add("b");//添加元素 list .add("c.

2021-12-08 00:34:14 126

原创 java基础——句中敏感词清除

import java.util.ArrayList;import java.util.List;import java.util.Scanner;public class 敏感词 { public static void main(String[] args) { //添加敏感词列表 List li = new ArrayList(); li.add("苍"); li.add("进"); li.add("空"); .

2021-12-08 00:30:36 222

原创 随机森林调参方法——其他模型也大体适用

2021-12-08 00:20:59 191

原创 Dataframe两个表格合并

pd.concat([pd.DataFrame(wine.data),pd.DataFrame(wine.target)],axis=1) 使用concat方法进行合并

2021-12-07 01:25:55 3147

原创 pyecharts使用方法

from pyecharts import options as opts #配置文件from pyecharts.charts import Barfrom pyecharts.faker import Faker #随机模拟数据from pyecharts.globals import ThemeTypebar =( Bar(opts.InitOpts(theme=ThemeType.WESTEROS)) #配置单图主题色、添加数据等操作 .add_xaxis(['a','b'.

2021-12-07 00:52:16 305

原创 修改可视化大屏背景色

在pyecharts制作可视化大屏后,可以使用bs4库对可视化大屏进行背景色等参数进行修改from bs4 import BeautifulSoupimport oswith open(os.path.join(os.path.abspath("."), "new_page_demo.html"), 'r+', encoding="utf8") as html: html_bf = BeautifulSoup(html, "lxml") divs = html_bf.find_a.

2021-12-06 21:03:52 3071

原创 JDBC连接——mysql+myeclipse+servlet+navicat

1、软件介绍:myeclipse:java编译器mysql:数据库servlet:java浏览器服务navicat:数据库管理工具2、步骤(1)软件安装(2)mysql连接navicat及建库(4)在myeclipse中建立javaweb项目并完成服务器的配置3、javaweb项目连接mysql(1)mysql驱动安装(官网下载:mysql5.7可以使用5.1驱动)(2)mysql包引入import java...

2021-10-23 14:47:17 703

原创 波士顿房价数据集——随机森林

波士顿房价数据链接:https://pan.baidu.com/s/1JPrcNl1AgNCKEHCjOGyHvQ提取码:1234import matplotlib.pyplot as pltfrom sklearn.model_selection import train_test_splitfrom sklearn import metrics #评价函数库import pandas as pdimport numpy as npfrom sklearn.ensemble impo.

2021-10-06 22:36:27 2284 2

原创 sklearn波士顿房价数据集——线性回归

(一)导入并查看数据import pandas as pd import matplotlib.pyplot as pltfrom sklearn.model_selection import train_test_split from sklearn.linear_model import LinearRegression #线性回归库from sklearn.datasets import load_boston #导入波士顿数据集import matplotlib.pyplo.

2021-10-06 19:46:09 3370

原创 python 数据可视化大屏制作

数据链接:https://pan.baidu.com/s/1waFRKxAvt42kRN9kAfFs4w提取码:1234淘宝销售数据地理图from pyecharts import options as optsfrom pyecharts.globals import ThemeType #导入主题库from pyecharts.globals import SymbolType #主题库from pyecharts.charts import Pie,Bar,Map,WordClou.

2021-10-04 01:20:45 1515

原创 CIFAR10基于pytorch卷积神经网络(cnn)实战

1、导入相关库import torchimport torch.nn as nn #神经网络库import torchvision #下载数据集,图像转换from torchvision import transforms,datasetsimport torch.nn as nnimport torch.nn.functional as Fimport torch.optim as optim2、载入数据transform = transforms.Compose([ #定.

2021-09-23 19:13:42 1283

原创 mnist数据集手写数据识别实战

mnist数据集为keras库中自带数据集,可直接导入数据,本文使用pycharm作为主要工具1、导入相应库文件(主要使用keras库)from keras.datasets import mnist #导入数据集from keras import regularizers #layers表示层,regularizers表示正则化from keras.models import Sequential#神经网络模型库from keras.utils import np_utils#数据处理库.

2021-09-19 22:23:39 413

原创 用户情感可视化分析——天池竞赛

数据链接:https://pan.baidu.com/s/1zzKSJJEhYr20aUtWSPgQWQ提取码:1234#导入相关库并读取数据%matplotlib inlineimport pandas as pdimport numpy as npimport matplotlib.pyplot as pltdata = pd.read_csv("D:/天池竞赛/用户情感分析/earphone_sentiment.csv",encoding="gbk")data#..

2021-08-10 14:29:58 1403

原创 超市产品关联性分析——天池竞赛

天池大赛产品关联性分析数据集:https://pan.baidu.com/s/1CFxIDu8enrCbj50JQlHiMg提取码:1234#首先进行数据预处理import pandas as pd#读入所有数据customer = pd.read_csv("D:/天池竞赛/产品关联分析/customer.csv",encoding="gbk")date = pd.read_csv("D:/天池竞赛/产品关联分析/date.csv",encoding="gbk")order = pd.

2021-08-08 21:18:38 1384 1

原创 线性回归——预测化学分子手性原子数

# coding=utf-8#导入相关库文件并读取数据,(sklearn库文件较多,可在后续使用过程中导入)import pandas as pdfrom pandas import DataFrameimport numpy as npimport matplotlib.pyplot as plt import seaborn as snsfrom sklearn import preprocessingfrom sklearn.preprocessing import MinMaxS.

2021-07-26 23:41:44 199

原创 kmeans聚类——化学分子聚类实战

案列中数据链接:https://pan.baidu.com/s/1kpNdwBNmyObbZP96KLidgA提取码:1234keggle原数据链接:https://pan.baidu.com/s/1MI_4HhHxaGlUIigEb1F6mA提取码:12344# coding=utf-8#导入相关库文件并读取数据,(sklearn库文件较多,可在后续使用过程中导入)import pandas as pdfrom pandas import DataFrameimpor..

2021-07-26 22:16:24 948

原创 汽车数据聚类分析——天池竞赛

天池竞赛汽车数据链接:https://pan.baidu.com/s/126CDXOpFbR-J3ST-U83LZA提取码:1234#导入库文件并读取数据import pandas as pdfrom pandas import DataFramefrom sklearn import preprocessingfrom sklearn.preprocessing import MinMaxScalerfrom sklearn.cluster import KMeanscar_data.

2021-07-20 11:51:35 784

原创 汽车数据分析——箱型图异常值处理方法——天池竞赛

天池竞赛汽车数据链接:https://pan.baidu.com/s/126CDXOpFbR-J3ST-U83LZA提取码:1234#导入库文件并读取数据import pandas as pdimport matplotlib.pyplot as pltfrom pandas import DataFramefrom sklearn import preprocessingfrom sklearn.preprocessing import MinMaxScalerfrom sklear.

2021-07-20 10:56:03 651

原创 【宝可梦数据分析–数据相关性分析及可视化】

#数据集链接:https://pan.baidu.com/s/1U0XDJmi_lYI84UkPHgpDfA #提取码:1234#导入相关库并打开CSV文件import matplotlib.pyplot as pltimport pandas as pdimport seaborn as snsBao = pd.read_csv("D:/天池竞赛/精灵宝可梦数据集分析/pokemon0820.csv") #对数据进行空值检测print(Bao.isnull().sum(axis=0).

2021-07-08 00:57:06 1008 1

2021B题泰迪杯第四届.rar

2021B题泰迪杯第四届.rar

2021-12-08

2021A题——泰迪杯第四届.rar

2021A题——泰迪杯第四届.rar

2021-12-08

GAN用途使用方法及学习.docx

GAN用途使用方法及学习.docx

2021-12-08

随机森林基础——load_wine红酒数据集.ipynb

随机森林基础——load_wine红酒数据集.ipynb

2021-12-08

决策树基础———wine红酒数据集实列.ipynb

决策树基础———wine红酒数据集实列.ipynb

2021-12-07

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除