spark、hive、MR数据清洗的区别

Q:

如题三者都可以进行数据清洗,区别是什么?各自使用场景是什么?

A:

Spark处理任务比MR快,但是对内存消耗是很大的。

多数场景优先考虑hive进行数据清洗,少部分会单独编写MR或者Spark程序进行复杂处理。

Spark自然适合实时数据处理,例如公司现在放贷业务需要30s放款或拒绝,spark是最合适的。

如果不要求实时处理,只是单纯数据量大,MR则是合适的选择。

现在在做的特征提取,也可以广义理解成数据清洗,公司订单量不大,时间要求不高,用python脚本处理也是可以的。

Hive SQL中进行数据清洗可以通过多种方式实现。以下是几种常用的方法: 1. 使用内置函数:Hive提供了许多内置函数,可以用于处理和清洗数据。例如,你可以使用trim函数去掉字符串两端的空格,使用lower函数将字符串转换为小写,使用regexp_replace函数替换字符串中的特定字符等等。这些函数可以根据具体的需求进行组合使用,以完成数据清洗的任务。 2. 使用正则表达式(regexp):Hive支持使用正则表达式对数据进行匹配和替换。你可以使用regexp_extract函数从字符串中提取特定的模式,也可以使用regexp_replace函数替换字符串中的特定字符。这些正则表达式函数可以帮助你清理和转换数据,使其符合你的需求。 3. 使用条件语句(CASE):Hive SQL中的CASE语句可以根据条件对数据进行判断和处理。你可以使用CASE语句根据特定的条件对数据进行过滤、替换或转换。例如,你可以使用CASE语句将某个列中的特定值替换为其他值,或者根据某个条件将数据分类为不同的组别。 4. 使用自定义函数(UDF):如果内置函数和正则表达式无法满足你的需求,你可以自定义函数来进行数据清洗Hive允许你编写自定义函数(UDF)来扩展其功能。通过编写自定义函数,你可以根据具体的需求实现更复杂的数据清洗逻辑。 总结起来,通过使用内置函数、正则表达式、条件语句和自定义函数,你可以在Hive SQL中实现数据清洗。这些方法可以根据不同的需求进行组合和调整,以达到清洗数据的目的。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值