hive实战:词频统计

本文详细介绍了如何在Hadoop生态系统中,从创建文本文件、上传至HDFS,到启动Hive服务、创建外部表,以及利用HiveSQL进行词频统计的实战步骤。通过实例演示了如何使用explode和split函数进行数据处理和分析。
摘要由CSDN通过智能技术生成

一、实战概述

二、提出任务

三、完成任务

(一)准备数据文件

1、在虚拟机上创建文本文件

  • 在master上创建text.txt
    在这里插入图片描述

2、将文本文件上传到HDFS指定目录

  • 将text.txt文件上传到HDFS的/hivewc/input目录
    在这里插入图片描述

(二)实现步骤

1、启动Hive Metastore服务

  • 执行命令:hive --service metastore &,在后台启动metastore服务
    在这里插入图片描述

2、启动Hive客户端

  • 执行:hive,看到命令提示符hive>

在这里插入图片描述

3、基于HDFS文件创建外部表

  • 基于/hivewc/input目录下的文件,创建外部表t_word,执行命令: create external table t_word(word string) location '/hivewc/input';
    在这里插入图片描述
  • 加载成绩数据文件到内部表t_score,执行命令:load data inpath '/hivewc/input/test.txt' into table t_word;

在这里插入图片描述

  • MySQLhive数据库的TBLS表里可以查看外部表t_word对应的记录

在这里插入图片描述

4、利用Hive SQL进行词频统计

编写Hive SQL语句,进行词频统计
执行命令:select word, count(*) from (select explode(split(word, ' ')) word from t_word) t_word_1 group by word;

在这里插入图片描述
在这里插入图片描述
注意,这里在嵌套查询中,我们为子查询取了一个别名,这个别名是t_word_1,必须取别名,否则会报错。

这条SQL语句是在处理一个名为t_word的表,该表中有一个word字段,该字段存储的是由空格分隔的单词字符串。

首先,使用explode(split(word, ' ')) AS wordt_word表中的每一行word字段创建一个新的临时表(别名v_word)。这里split(word, ' ')函数将每个word字段的内容按照空格分割成多个单词,并生成一个多行的结果集,每行包含一个单词。

explode函数则将这个分割后的数组转换为多行记录,即每一行对应原字符串中的一个单词。

然后,通过GROUP BY word对新生成的临时表v_word中的word字段进行分组,即将所有相同的单词归为一组。

最后,使用COUNT(*)统计每个单词分组的数量,结果将展示每个单词及其在原始数据集中出现的次数。

整个查询的目的在于统计t_word表中各个单词出现的频率。

通过这一系列的操作,我们深入学习了Hive的外部表创建、数据加载、查询、视图创建以及统计分析的操作。希望大家能够在实际应用中灵活运用这些知识。

5、演示分步完成词频统计

  • 按空格拆分行数据,执行语句:SELECT split(word, ' ') FROM t_word;
    在这里插入图片描述

  • 让单词成一列,执行语句:SELECT explode(split(word, ' ')) AS word FROM t_word;
    在这里插入图片描述

  • 基于视图分组统计操作,执行语句:SELECT word, COUNT(*) FROM v_word GROUP BY word;
    在这里插入图片描述
    在这里插入图片描述

  • 20
    点赞
  • 24
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值