hive and spark 实训报告

本文档是一份关于Hive和Spark的实训报告,详细介绍了从环境配置到数据处理的全过程。首先,正确安装了JDK、配置了Hadoop、Hive、Flume和Sqoop。接着,通过Hive创建leibo表,使用Flume监控目录并将文件上传到Hive。随后,进行了数据可视化分析,包括不同岗位的薪资统计、大数据岗位在主要城市的分布以及不同经验年限的薪资水平。最后,使用Sqoop将数据导入MySQL,并展示了多个数据可视化的成果。
摘要由CSDN通过智能技术生成

1.正确安装jdk
在这里插入图片描述2.正确配置Hadoop平台
在这里插入图片描述
3.正确配置hive

在正确这里插入图片描述4.正确配置flume
在这里插入图片描述5.正确配置sqoop在这里插入图片描述6.首先在hive上创建leibo表在这里插入图片描述
7.flume监控目录,上传文件到hive的leibo表下
在这里插入图片描述
8.查看数据

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值