spark sql对seq值的包装

博客探讨了Spark SQL如何处理seq(s1, s2, s3, ...)的值,指出seq的每个元素会被转化为Row。若元素是简单值,Row包含一个value列;若为N-Tuple,Row则含N列。对于一元组,Spark SQL将其视为非元组,生成单列Row。文章通过测试用例进行了验证。" 138776321,7337247,Elasticsearch索引原理与实战解析,"['大数据', '搜索引擎', 'Elasticsearch', '搜索算法', '日志处理']
摘要由CSDN通过智能技术生成

spark sql对seq(s1, s2, s3, …)值的包装,seq的每个元素si会被包装成一个Row
如果si为一个简单值,则生成一个只包含一个value列的Row
如果si为一个N-Tuple,则生成一个包含N列的Row

特别的,如果N-Tuple是一元组,则视为非元组,即生成一个只包含一个value列的Row

scala> Seq(("bluejoe"),("alex")).toDF().show
+-------+
|  value|
+-------+
|bluejoe|
|   alex|
+-------+

scala> Seq("bluejoe","alex").toDF().show
+-------+
|  value|
+-------+
|bluejoe|
|   alex|
+-------+

scala> Seq(("bluejoe",1),("alex",0)).toDF().show
+-------+---+
|     _1| _2|
+-------+---+
|bluejoe|  1|
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值