Hadoop综合大作业

1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。

2.用Hive对爬虫大作业产生的csv文件进行数据分析,写一篇博客描述你的分析过程和分析结果。

 

 

1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。

因为python生成的结果为中文,所以首先去网上下载一篇英文小说,我选择的时《了不起的盖茨比》

首先启动hadoop

文件上传到hdfs

启动hive

创建原始文件,导入文件到small中并查看,因为之前已经操作,所以直接查看是否有small表

 

然后进行HQL词频统计,结果放到small_count中

查看small_count表中的前十

 

 2.用Hive对爬虫大作业产生的csv文件进行数据分析,写一篇博客描述你的分析过程和分析结果。
统计的时2345电影网的热门电影数据。如图:

将文件转换为csv格式和txt格式,并将文件放入到虚拟机中

查看前十条:

 

启动hdfs

 

 

 将文件上传至hdfs并显示前十条

启动hive

 创建数据库

 

创建表

将文件导入表中

查看前十条

 

转载于:https://www.cnblogs.com/cgz123/p/9074289.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值