- 博客(1)
- 收藏
- 关注
原创 记一次Spark两表join错误修复
业务情景两表根据一个key进行连接,一张表从hive中读取,数据量4千万,一张表从mongo中读取,数据量87万。起初,把小表直接进行广播变量,然后在大表的map算子里面根据key一条一条连接,这样速度很快。后来小标数据源改变了,数据量上升到1千万,此时再用之前的方式去跑spark任务,效率低了很多。然后我把两个数据源的表都注册成临时表,写sparksql作连接,想看看这样和我之前的写法时间...
2019-08-22 16:42:04 4034
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人