SQL数据清洗

真正的原始表是混乱且有许多冗余特征的,所以需根据原始数据清洗出相对干净 的特征表很重要。
但是公司的业务数据一般存贮在数据仓库(DW)里面,数据量很大,这时候用Pandas处理是不方便的,更多的时候是用HIveSQL和MySQL处理。
在这里插入图片描述

1.删除指定列、重命名列

场景:多数情况并不是底表的所有特征(列)都对分析有用,这个时候就只需要抽取部分列,对于不用的那些列,可以删除;因为一般情况下是没有删除的权限(可以构建临时表),这时候可以反向思考:删除的另一个逻辑是选定指定列(select)
重命名列可以避免有些列的命名过于冗长(比如case when语句)且有时候会根据不同的业务指标需求来命名。

df.drop(col_names,axis=1,inplace=True)
df.rename(index={'rol':'A'},columns={'col1':B})
select col_names from Table_Name; (删除的另一个逻辑是选定指定列)
或者alter table Table_Name drop column columnName;
select col_names as col_name_B from Table_Name;
2.重复值、缺失值处理

场景:网站访问的人数,不过同一个人一天可以访问多次,因此数据库中会记录用户的多条访问记录,而这时候如果想要找到今天访问这个网站的1000个人的ID并根据此做用户调研,需要去掉重复值给业务方去回访。
缺失值:NULL做运算逻辑时,返回的结果还是NULL,这可能就会出现一些脚本运行正确,但结果不对的BUG,此时需要将NULL值填充为指定值。

重复值处理Python版:
df.drop_duplicates()
重复值处理SQL版:
1select distinct col_name from Table_Name
2select col_name from Table_Name group by col_name
缺失值处理Python版:
df.fillna(value = 0)
df1.combine_first(df2)
缺失值处理SQL版:
1select ifnull(col_name,0) value from Table_Name
2select coalesce(col_name,col_name_A,0) as value from Table_Name
3select case when col_name is null then 0 else col_name end from Table_Name
3.03 替换字符串空格、清洗*%@等垃圾字符、字符串拼接、分隔等字符串处理

场景:理解用户行为的重要一项是去假设用户的心理,这会用到用户的反馈意见或一些用研的文本数据,这些文本数据一般会以字符串的形式存储在数据库中,但用户反馈的这些文本一般都会很乱,所以需要从这些脏乱的字符串中提取有用信息,就会需要用到文字符串处理函数。

字符串处理Python版:
## 1、空格处理
df[col_name] = df[col_name].str.lstrip() 
## 2、*%d等垃圾符处理
df[col_name].replace(' &#.*', '', regex=True, inplace=True)
## 3、字符串分割
df[col_name].str.split('分割符')
## 4、字符串拼接
df[col_name].str.cat()
字符串处理SQL版:
## 1、空格处理
select ltrim(col_name) from Table_name 
## 2、*%d等垃圾符处理
select regexp_replace(col_name,正则表达式) from Table_name 
## 3、字符串分割
select split(col_name,'分割符') from Table_name 
## 4、字符串拼接
select concat_ws(col_name,'拼接符') from Table_name 
4.合并处理

场景:有时候你需要的特征存储在不同的表里,为便于清洗理解和操作,需要按照某些字段对这些表的数据进行合并组合成一张新的表,这样就会用到连接等方法。

合并处理Python版:
左右合并
1、pd.merge(left, right, how='inner', on=None, left_on=None, right_on=None,
         left_index=False, right_index=False, sort=True,
         suffixes=('_x', '_y'), copy=True, indicator=False,
         validate=None)
2、pd.concat([df1,df2])
上下合并
df1.append(df2, ignore_index=True, sort=False)
合并处理SQL版:
左右合并
select A.*,B.* from Table_a A join Table_b B on A.id = B.id
select A.* from Table_a A left join Table_b B on A.id = B.id
上下合并
## Union:对两个结果集进行并集操作,不包括重复行,同时进行默认规则的排序;
## Union All:对两个结果集进行并集操作,包括重复行,不进行排序;
select A.* from Table_a A 
union
select B.* from Table_b B 
# Union 因为会将各查询子集的记录做比较,故比起Union All ,通常速度都会慢上许多。一般来说,如果使用Union All能满足要求的话,务必使用Union All。 
5.窗口函数的分组排序

场景:假如现在你是某宝的分析师,要分析今年不同店的不同品类销售量情况,需要找到那些销量较好的品类,并在第二年中加大曝光,这个时候你就需要将不同店里不同品类进行分组,并且按销量进行排序,以便查找到每家店销售较好的品类。

窗口分组Python版:
df['Rank'] = df.groupby(by=['Sale_store'])['Sale_Num'].transform(lambda x: x.rank(ascending=False))

窗口分组SQL版:
select   * from ( Select  *,row_number() over(partition by Sale_store order by Sale_Num desc) rk
  from table_name ) b where b.rk = 1

from here

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值