Hadoop综合大作业

本次作业的要求来自:https://edu.cnblogs.com/campus/gzcc/GZCC-16SE2/homework/3339

Hadoop综合大作业 要求

1.将爬虫大作业产生的csv文件上传到HDFS

2.对CSV文件进行预处理生成无标题文本文件

3.把hdfs中的文本文件最终导入到数据仓库Hive中

4.在Hive中查看并分析数据

5.用Hive对爬虫大作业产生的进行数据分析,写一篇博客描述你的分析过程和分析结果。(10条以上的查询分析)

 

数据预处理:

对爬取的CSV文件进行处理和清洗,删除空白和没用的数据

清理重复的数据和无效数据

 

大数据分析:

1.将爬虫大作业产生的csv文件上传到HDFS

先用命令创建文件夹,并进入其文件夹位置。

 将文件复制到新创文件夹中,并查看前五条数据,测试是否上传成功。

 为了更好的显示效果,我们先对数据进行文本预处理。

 

预处理后用命令使其生效并测试是否成功。

 启动数据库服务,并进入hive路径

创建一个数据库dbpy,和数据表lagou_py。在测试十条数据。

 

 用hive对数据进行分析

 

1.查看评分在9.0以上的电影数量,得到结果为1508部。可以看出其网站电影质量比较高。

 2.查看由张国荣主演的电影。

 3.查看由张国荣主演的评分大于9.0的电影,其结果为0

4查看评分在8.0-9.0的电影数量其结果为658部

 5.查询分数<8.0的电影数量,其结果为0

 6.查询1999年所拍的电影数量。

 7.查看评分在9.5以上的电影。

 8.查询评分在9.0以上的电影名称,方便给观众推荐

 查询评分9.0以上的电影的主演。

 

转载于:https://www.cnblogs.com/timchan/p/11054578.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值