spark-sql 与hive 常用函数

窗口函数与分析函数
应用场景:
(1)用于分区排序
(2)动态Group By
(3)Top N
(4)累计计算
(5)层次查询

窗口函数
FIRST_VALUE:取分组内排序后,截止到当前行,第一个值
LAST_VALUE: 取分组内排序后,截止到当前行,最后一个值
LEAD(col,n,DEFAULT) :用于统计窗口内往下第n行值。第一个参数为列名,第二个参数为往下第n行(可选,默认为1),第三个参数为默认值(当往下第n行为NULL时候,取默认值,如不指定,则为NULL)
LAG(col,n,DEFAULT) :与lead相反,用于统计窗口内往上第n行值。第一个参数为列名,第二个参数为往上第n行(可选,默认为1),第三个参数为默认值(当往上第n行为NULL时候,取默认值,如不指定,则为NULL)

OVER从句
1、使用标准的聚合函数COUNT、SUM、MIN、MAX、AVG
2、使用PARTITION BY语句,使用一个或者多个原始数据类型的列
3、使用PARTITION BY与ORDER BY语句,使用一个或者多个数据类型的分区或者排序列
4、使用窗口规范,窗口规范支持以下格式:

当ORDER BY后面缺少窗口从句条件,窗口规范默认是 RANGE BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW.

当ORDER BY和窗口从句都缺失, 窗口规范默认是 ROW BETWEEN UNBOUNDED PRECEDING AND UNBOUNDED FOLLOWING.

OVER从句支持以下函数, 但是并不支持和窗口一起使用它们。
Ranking函数: Rank, NTile, DenseRank, CumeDist, PercentRank.
Lead 和 Lag 函数.

分析函数
ROW_NUMBER() 从1开始,按照顺序,生成分组内记录的序列,比如,按照pv降序排列,生成分组内每天的pv名次,ROW_NUMBER()的应用场景非常多,再比如,获取分组内排序第一的记录;获取一个session中的第一条refer等。
RANK() 生成数据项在分组中的排名,排名相等会在名次中留下空位
DENSE_RANK() 生成数据项在分组中的排名,排名相等会在名次中不会留下空位
CUME_DIST 小于等于当前值的行数/分组内总行数。比如,统计小于等于当前薪水的人数,所占总人数的比例
PERCENT_RANK 分组内当前行的RANK值-1/分组内总行数-1
NTILE(n) 用于将分组数据按照顺序切分成n片,返回当前切片值,如果切片不均匀,默认增加第一个切片的分布。NTILE不支持ROWS BETWEEN,比如 NTILE(2) OVER(PARTITION BY cookieid ORDER BY createtime ROWS BETWEEN 3 PRECEDING AND CURRENT ROW)。

增强的聚合 Cube和Grouping 和Rollup
这几个分析函数通常用于OLAP中,不能累加,而且需要根据不同维度上钻和下钻的指标统计,比如,分小时、天、月的UV数。

GROUPING SETS
在一个GROUP BY查询中,根据不同的维度组合进行聚合,等价于将不同维度的GROUP BY结果集进行UNION ALL,
其中的GROUPING__ID,表示结果属于哪一个分组集合。

CUBE
根据GROUP BY的维度的所有组合进行聚合。

数学函数

round(double d, int n):返回保留n位小数的近似d值
floor(double d): 返回小于d的最大整值
ceil(double d): 返回大于d的最小整值
rand(int seed): 返回随机数,seed是随机因子
bin(int d): 计算二进制值d的string值
日期函数

to_date(string timestamp):返回时间字符串中的日期部分,如to_date('1970-01-01 00:00:00')='1970-01-01'
current_date:返回当前日期
year(date):返回日期date的年,类型为int如year('2019-01-01')=2019
month(date):返回日期date的月,类型为int,如month('2019-01-01')=1
day(date): 返回日期date的天,类型为int,如day('2019-01-01')=1
weekofyear(date1):返回日期date1位于该年第几周。如weekofyear('2019-03-06')=10
datediff(date1,date2):返回日期date1与date2相差的天数,如datediff('2019-03-06','2019-03-05')=1
date_add(date1,int1):返回日期date1加上int1的日期,如date_add('2019-03-06',1)='2019-03-07'
date_sub(date1,int1):返回日期date1减去int1的日期,如date_sub('2019-03-06',1)='2019-03-05'
months_between(date1,date2):返回date1与date2相差月份,如months_between('2019-03-06','2019-01-01')=2
add_months(date1,int1):返回date1加上int1个月的日期,int1可为负数。如add_months('2019-02-11',-1)='2019-01-11'
last_day(date1):返回date1所在月份最后一天。如last_day('2019-02-01')='2019-02-28'
next_day(date1,day1):返回日期date1的下个星期day1的日期。day1为星期X的英文前两字母如next_day('2019-03-06','MO') 返回'2019-03-11'
trunc(date1,string1):返回日期最开始年份或月份。string1可为年(YYYY/YY/YEAR)或月(MONTH/MON/MM)。如trunc('2019-03-06','MM')='2019-03-01',trunc('2019-03-06','YYYY')='2019-01-01'
unix_timestamp():返回当前时间的unix时间戳,可指定日期格式。如unix_timestamp('2019-03-06','yyyy-mm-dd')=1546704180
from_unixtime():返回unix时间戳的日期,可指定格式。如select from_unixtime(unix_timestamp('2019-03-06','yyyy-mm-dd'),'yyyymmdd')='20190306'
条件函数

if(boolean,t1,t2):若布尔值成立,则返回t1,反正返回t2。如if(1>2,100,200)返回200
case when boolean then t1 else t2 end:若布尔值成立,则t1,否则t2,可加多重判断
coalesce(v0,v1,v2):返回参数中的第一个非空值,若所有值均为null,则返回null。如coalesce(null,1,2)返回1
isnull(a):若a为null则返回true,否则返回false
字符串函数

length(string1):返回字符串长度
concat(string1,string2):返回拼接string1及string2后的字符串
concat_ws(sep,string1,string2):返回按指定分隔符拼接的字符串
lower(string1):返回小写字符串,同lcase(string1)。upper()/ucase():返回大写字符串
trim(string1):去字符串左右空格,ltrim(string1):去字符串左空格。rtrim(string1):去字符串右空格
repeat(string1,int1):返回重复string1字符串int1次后的字符串
reverse(string1):返回string1反转后的字符串。如reverse('abc')返回'cba'
rpad(string1,len1,pad1):以pad1字符右填充string1字符串,至len1长度。如rpad('abc',5,'1')返回'abc11'。lpad():左填充
split(string1,pat1):以pat1正则分隔字符串string1,返回数组。如split('a,b,c',',')返回["a","b","c"]
substr(string1,index1,int1):以index位置起截取int1个字符。如substr('abcde',1,2)返回'ab'
聚合函数

count():统计行数
sum(col1):统计指定列和
avg(col1):统计指定列平均值
min(col1):返回指定列最小值
max(col1):返回指定列最大值
表生成函数
与聚合函数相反,将字段内复杂的数据拆分成多行。

explode (array):返回多行array中对应的元素。如explode(array('A','B','C'))返回

explode(map):返回多行map键值对对应元素。如explode(map(1,'A',2,'B',3,'C'))返回

explode常用来做行列转换。

  • 3
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Spark SQLSpark生态系统中的一个模块,用于在Spark中进行结构化数据处理。它提供了一个类似于SQL的查询语言,可以用于查询和操作数据。Spark SQL还提供了DataFrame API,可以用于以编程方式查询和操作数据。 Spark SQL on HiveSpark SQL的一个扩展,它允许Spark使用Hive元数据存储和查询数据。这意味着Spark可以使用Hive的表和分区,以及Hive的UDF和UDAF函数Spark SQL on Hive还支持Hive的查询语言HQL。 因此,Spark SQLSpark SQL on Hive的区别在于Spark SQLSpark生态系统中的一个独立模块,而Spark SQL on HiveSpark SQL的一个扩展,它允许Spark使用Hive元数据存储和查询数据。 ### 回答2: Spark SQLSpark生态系统中的一个模块,它提供了一种用于Spark的交互式查询和分析数据的方式。Spark SQL支持不同的数据源,包括Hadoop HDFS,Apache Cassandra和Apache Hive。同时,Spark SQL还支持在SQL查询之外使用DataFrame API进行编程。 Spark SQL on Hive是指在Spark SQL中使用Hive数据源进行数据查询和分析。在使用Spark SQL on Hive时,Spark将会利用Hive的元数据和查询优化器来提高查询性能。这使得Spark SQL on Hive在企业环境中是一种极为常见的部署方式。 Spark SQLSpark SQL on Hive的主要区别在于数据源和优化器。Spark SQL可以与各种不同的数据源进行交互,而Spark SQL on Hive主要使用Hive元数据和优化器来处理数据。此外,Spark SQL也可以使用自己的优化器,它针对Spark SQL的特点进行了优化和改进。 另一个区别是在处理大规模数据时,Spark SQLSpark SQL on Hive表现更好。这是因为Spark SQL使用了自己的内存管理和优化策略,可以将大量的计算分布到多个节点上,从而处理更快、更高效。 综上所述,Spark SQLSpark SQL on Hive都是非常强大并且受欢迎的Spark模块,它们都具有广泛的应用和不同的优势。选择哪种模块取决于具体应用场景和需求。 ### 回答3: Spark SQLSpark 内置的一种 SQL 接口,用于操作分布式数据集(由 RDD 或 Spark 数据源构建)。Spark SQL 提供了一个 SQL 编程界面和 DataFrame API,让其与 SQL 数据仓库和传统数据仓库类似。 Spark SQL on Hive 是一个构建在 Hive 之上的 Spark SQL 解决方案。它允许 Spark SQL 直接操作 Hive 的数据仓库,使用 Hive 的方言(HiveQL)和元数据。Spark SQL on Hive 可以通过 Spark 操作 Hive 仓库来提供 SQL 查询和 HiveQL 查询功能。 由于 Spark SQL on Hive 是构建在 Hive 之上的,因此它提供了很多 Hive 的优点,比如先进的查询优化和元数据管理功能。它使用HDFS作为存储层,通过优化和管理查询计划来提高性能。 而 Spark SQL 直接使用 Spark 原生的内存计算引擎,不需要依赖于 Hive 的元数据解析和查询计划优化。这使得 Spark SQL 具有更好的实时性能和灵活性,可以直接在内存中操作数据。 总的来说,Spark SQL on Hive 主要是为了兼容 Hive 所提供的,而 Spark SQL 则是相对独立的一种 SQL 操作方式,更适合实时处理和大数据量的计算场景。Spark SQL on Hive 更适合用于传统的数据仓库和 BI 应用场景,而 Spark SQL 更适合用于实时数据处理和机器学习等高性能计算场景。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值