自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(7)
  • 收藏
  • 关注

转载 听说这个最全的Mysql红宝书

目录第一章 数据库概述1.1、数据库的好处1.2、数据库的常见概念1.3、数据库的存储特点1.4、数据库的常见分类1.5、SQL语言的分类第二章 MySQL概述2...

2020-08-30 10:46:16 873

原创 Datawhale_动手数据分析_Part05_模型建立与评估

# 导包import pandas as pdimport numpy as npimport matplotlib.pyplot as pltimport seaborn as snsfrom IPython.display import Image%matplotlib inline# 设置画图字体plt.rcParams['font.sans-serif'] = ['SimHei'] # 用来正常显示中文标签plt.rcParams['axes.unicode_minus'] =

2020-08-28 11:40:02 299

原创 Datawhale_动手数据分析_Part04_数据可视化

2 第二章:数据可视化%matplotlib inlineimport numpy as npimport pandas as pdimport matplotlib.pyplot as plt# 导入CSV文件text = pd.read_csv(r'result.csv')text.head()2.7.1 任务一:跟着书本第九章,了解matplotlib,自己创建一个数据项,对其进行基本可视化2.7.2 任务二:可视化展示泰坦尼克号数据集中男女中生存人数分布情况(用柱状图试试)。s

2020-08-26 11:49:52 284

原创 Datawhale_动手数据分析_Part03_数据重构

# 导入基本库import numpy as npimport pandas as pdtext = pd.read_csv('./data/train-left-up.csv')text.head()2.4 数据的合并2.4.1 任务一:将data文件夹里面的所有数据都载入,与之前的原始数据相比,观察他们的之间的关系text_left_up = pd.read_csv("data/train-left-up.csv")text_left_down = pd.read_csv("data/

2020-08-23 23:00:44 237

原创 Datawhale_动手数据分析_Part02_数据清洗及特征工程

第二章:数据清洗及特征处理2.1 缺失值观察与处理# 查看数据缺失值状态import numpy as npimport pandas as pddf = pd.read_csv('train.csv')df.head(3)# 方法一df.info()# 方法二df.isnull().sum()# 看详细的缺失值df[['Age','Cabin','Embarked']].head(3)2.1.2 任务二:对缺失值进行处理# 缺失值处理# 方法一df[df['Age']==

2020-08-21 22:34:15 219

原创 Datawhale_动手数据分析_Part01_数据加载

1 第一章:数据载入及初步观察1.1 载入数据1.1.1 任务一:导入numpy和pandas# 导包import pandas as pdimport numpy as np1.1.2 任务二:载入数据使用相对路径载入数据使用绝对路径载入数据# 相对路径df = pd.read_csv("./train.csv")# read_csv和read_table区别,后者是整行读取,需要自己设定分隔符df = pd.read_table("./train.csv", sep=','

2020-08-18 22:55:09 171

原创 python爬虫-爬取微博转评赞data信息

利用python简单爬取新浪微博(转发/评论/点赞/blog文本)信息import requestsimport jsonfrom jsonpath import jsonpathimport pprintimport pandas as pdimport timeimport randomdef get_content(url): response = requests.get(url, headers=headers) data = json.loads(respon

2020-08-05 23:49:36 1994

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除