视频网站数据MapReduce清洗及Hive数据分析

一.需求描述

利用MapReduce清洗视频网站的原数据,用Hive统计出各种TopN常规指标:

        视频观看数 Top10

        视频类别热度 Top10

        视频观看数 Top20 所属类别包含这 Top20 视频的个数

        视频观看数 Top50 所关联视频的所属类别的热度排名

        每个类别中的视频热度 Top10,以Music为例

        每个类别中视频流量 Top10,以Music为例

        上传视频最多的用户 Top10 以及他们上传的视频

        每个类别视频观看数 Top10

2.数据源结构说明 

数据源1: user.txt

数据样例:     

barelypolitical  151  5106

bonk65     89     144

camelcars         26     674

数据样例中的三个字段结构:

上传者用户名

string

上传视频数

int

朋友数量

int

数据源2: video.txt  

数据样例:

fQShwYqGqsw	lonelygirl15	736	People & Blogs	133	151763	3.01	666	765	fQShwYqGqsw	LfAaY1p_2Is	5LELNIVyMqo	vW6ZpqXjCE4	vPUAf43vc-Q	ZllfQZCc2_M	it2d7LaU_TA	KGRx8TgZEeU	aQWdqI1vd6o	kzwa8NBlUeo	X3ctuFCCF5k	Ble9N2kDiGc	R24FONE2CDs	IAY5q60CmYY	mUd0hcEnHiU	6OUcp6UJ2bA	dv0Y_uoHrLc	8YoxhsUMlgA	h59nXANN-oo	113yn3sv0eo

数据样例中的字段结构:

视频唯一 id   

11 位字符串

视频上传者    

上传视频的用户名 String

视频年龄

视频上传日期和 2007 年 2 月15 日之间的整数天

视频类别

上传视频指定的视频分类

视频长度

整形数字标识的视频长度

观看次数

视频被浏览的次数

视频评分

满分 5 分

流量

视频的流量,整型数字

评论数

一个视频的整数评论数

相关视频 id

相关视频的 id,最多 20 个

上面只是拿出了一两条数据来介绍数据集的结构,在后续项目中要用到的数据集可以自行下载

 

二.数据清洗

  1)数据分析

在video.txt中,视频可以有多个所属分类,每个所属分类用&符号分割,并且分割的两边有空格字符,多个相关视频又用“\t”进行分割。为了分析数据时方便对存在多个子元素的数据进行操作,我们首先进行数据重组清洗操作。

具体做法:将所有的类别用“&”分割,同时去掉两边空格,多个相关视频 id 也使用“&”进行分割,这里看起来将"&"换成"\t"更方便,但是如果这样做就会将视频所属分类分割成不同字段,这样就没有办法进行清洗了

   2)注意事项

这里的数据清洗不涉及reduce操作,所以只用map即可,视频的相关视频id可以没有,但是比如评论数必须有值,没有评论即为0,所以如果一条数据的字段缺少,也是脏数据,是要被清洗的

 1 package mapreduce.videoETL;
 2 
 3 import java.io.IOException;
 4 import org.apache.hadoop.conf.Configuration;
 5 import org.apache.hadoop.conf.Configured;
 6 import org.apache.hadoop.fs.Path;
 7 import org.apache.hadoop.io.LongWritable;
 8 import org.apache.hadoop.io.NullWritable;
 9 import org.apache.hadoop.io.Text;
10 import org.apache.hadoop.mapreduce.Job;
11 import org.apache.hadoop.mapreduce.Mapper;
12 import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
13 import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
14 import org.apache.hadoop.util.Tool;
15 import org.apache.hadoop.util.ToolRunner;
16 
17 public class VideoMapReduce extends Configured implements Tool{
18     public static class VideoMap extends Mapper<LongWritable, Text, NullWritable, Text> {
19         private Text mapOutputValue = new Text();
20         @Override
21         protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException{
22             String line = value.toString();
23             String[] splits = line.split("\t");
24             
25             //1、过滤不合法数据
26             if(splits.length < 9) return;
27 
28             //2、去掉&符号左右两边的空格
29             splits[3] = splits[3].replaceAll(" ", "");
30             StringBuilder sb = new StringBuilder();
31 
32             //3、\t 换成&符号
33             for(int i = 0; i < splits.length; i++){
34             sb.append(splits[i]);
35             if(i < 9){
36             if(i != splits.length - 1){
37             sb.append("\t");
38             }
39             }else{
40             if(i != splits.length - 1){
41             sb.append("&");
42             }
43             }
44             }
45             
46             String newline = sb.toString();
47             
48             mapOutputValue.set(newline);
49             context.write(NullWritable.get(), mapOutputValue);
50         }
51     }
52     public int run(String[] args) throws Exception {
53               
54         Configuration conf = this.getConf();
55 
56         Job job=Job.getInstance(conf);
57         job.setJarByClass(VideoMapReduce.class);
58 
59         //指定输入数据的目录
60         Path inpath = new Path(args[0]);
61         FileInputFormat.addInputPath(job, inpath);
62         
63         //指定数据计算完成后输出的目录
64         Path outpath = new Path(args[1]);
65         FileOutputFormat.setOutputPath(job, outpath);
66 
67         //指定调用哪一个map和reduce方法
68         job.setMapperClass(VideoMap.class);
69 
70         //指定map输出键值对类型
71         job.setMapOutputKeyClass(NullWritable.class);
72         job.setMapOutputValueClass(Text.class);
73 
74         //指定reduce个数
75         job.setNumReduceTasks(0);
76         
77         //提交job任务
78         boolean isSuccess =job.waitForCompletion(true);  
79         
80         return isSuccess ? 0:1;
81     }
82     public static void main(String[] args) throws Exception {
83         
84         Configuration configuration = new Configuration();
85 
86         //指定HDFS地址
87         args=new String[]{
88                 "hdfs://beifeng01/user/beifeng01/mapreduce/input/testdata/videoData/video.txt",
89                 "hdfs://beifeng01/user/beifeng01/mapreduce/output"
90         };
91 
92         //Run job
93         int status = ToolRunner.run(configuration, new VideoMapReduce(), args);
94         //关闭
95         System.exit(status);
96     }
97 }

mapreduce任务跑完之后可以在输出目录中查看数据是否清洗成功

 

创建表

这里总共需要创建4张表,明明只有两个数据文件,为什么要创建4张表呢?因为这里创建的表要使用orc的压缩方式,而不使用默认的textfile的方式,orc的压缩方式要想向表中导入数据需要使用子查询的方式导入,即把从另一张表中查询到的数据插入orc压缩格式的表汇中,所以这里需要四张表,两张textfile类型的表user和video,两张orc类型的表user_orc和video_orc

1.先创建textfile类型的表

 1 create table video(
 2 videoId string,
 3 uploader string,
 4 age int,
 5 category array<string>,
 6 length int,
 7 views int,
 8 rate float,
 9 ratings int,
10 comments int,
11 relatedId array<string>)
12 row format delimited
13 fields terminated by "\t"
14 collection items terminated by "&"
15 stored as textfile;
1 create table user(
2 uploader string,
3 videos int,
4 friends int)
5 row format delimited
6 fields terminated by "\t"
7 stored as textfile;

向两张表中导入数据,从hdfs中导入

load data inpath 'user表所在hdfs中的位置' into table user;

load data inpath '清洗后的vidoe表所在hdfs中的位置' into table video;

2.创建两张orc类型的表

 1 create table video_orc(
 2 videoId string,
 3 uploader string,
 4 age int,
 5 category array<string>,
 6 length int,
 7 views int,
 8 rate float,
 9 ratings int,
10 comments int,
11 relatedId array<string>)
12 clustered by (uploader) into 8 buckets
13 row format delimited fields terminated by "\t"
14 collection items terminated by "&"
15 stored as orc;
1 create table user_orc(
2 uploader string,
3 videos int,
4 friends int)
5 clustered by (uploader) into 24 buckets
6 row format delimited
7 fields terminated by "\t"
8 stored as orc;

向两张表中导入数据

1 insert into table user_orc select * from user;
2 insert into table video_orc select * from video;

这时候数据就加载到两张表中了,可以进行简单的查看

1 select * from user_orc limit 10;
2 select * from video_orc limit 10;

三 最终业务实现

   1.视频观看数 Top10

使用order by做一个全局排序即可

1 select videoId,uploader,views from video_orc order by views desc limit 20;

   2. 视频类别热度 Top10

需求分析:  统计出每个类别有多少个视频,然后显示出视频最多的前10个,我们需要使用group by对视频类别进行聚合,然后使用count()进行统计出每个类别视频个数,最后将视频个数进行排序输出前10个,因为一个视频可能对应多个类别,要想使用group by,需要先将类别进行列转行(展开)

 1 select
 2 category_name as category,
 3 count(t.videoId) as hot
 4 from (
 5 select
 6 videoId,
 7 category_name
 8 from
 9 video_orc lateral view explode(category) t_catetory as category_name) t
10 group by
11 t.category_name
12 order by hot
13 desc limit 10;

explode是将category列展开,例如category列如果是一个集合,集合中是key-value对,展开后就是key一行,value一行,如果表中有多个字段,就要加上lateral view,t_catetory是虚拟表的名,必须有

   3.视频观看数 Top20 所属类别包含这 Top20 视频的个数

需求分析: 先找到观看数最高的 20 个视频所属条目的所有信息,降序排列,把这 20 条信息中的 category 分裂出来(列转行),最后查询视频分类名称和该分类下有多少个 Top20 的视频

 1 select
 2 category_name as category,
 3 count(t2.videoId) as hot_with_views
 4 from (
 5 select
 6 videoId,
 7 category_name
 8 from (
 9 select
10 *
11 from
12 video_orc
13 order by
14 views
15 desc limit
16 20) t1 lateral view explode(category) t_catetory as category_name) t2
17 group by
18 category_name
19 order by
20 hot_with_views
21 desc;

4.视频观看数 Top50 所关联视频的所属类别的热度排名

需求分析:  查询出观看数最多的前 50 个视频的所有信息(包含了每个视频对应的关联视频),记为临时表 t1,将找到的 50 条视频信息的相关视频的id列转行,记为临时表 t2,将相关视频的 id 和user_orc 表进行 inner join 操作,按照视频类别进行分组,统计每组视频个数,然后排序

 1 select
 2 category_name as category,
 3 count(t5.videoId) as hot
 4 from (
 5 select
 6 videoId,
 7 category_name
 8 from (
 9 select
10 distinct(t2.videoId),
11 t3.category
12 from (
13 select
14 explode(relatedId) as videoId
15 from (
16 select
17 *
18 from
19 video_orc
20 order by
21 views
22 desc limit
23 50) t1) t2
24 inner join
25 video_orc t3 on t2.videoId = t3.videoId) t4 lateral view explode(category)
26 t_catetory as category_name) t5
27 group by
28 category_name
29 order by
30 hot
31 desc;

5.每个类别中的视频热度 Top10,以Music为例

需求分析:   先将user_orc表中的category(视频类别) 展开,可以创建一张表用于存放视频类别,然后向表中插入数据,最后统计对应类别(Music)中的视频热度

创建表

 1 create table test(
 2 videoId string,
 3 uploader string,
 4 age int,
 5 categoryId string,
 6 length int,
 7 views int,
 8 rate float,
 9 ratings int,
10 comments int,
11 relatedId array<string>)
12 row format delimited
13 fields terminated by "\t"
14 collection items terminated by "&"
15 stored as orc;

插入数据

 1 insert into table test
 2 select
 3 videoId,
 4 uploader,
 5 age,
 6 categoryId,
 7 length,
 8 views,
 9 rate,
10 ratings,
11 comments,
12 relatedId
13 from
14 video_orc lateral view explode(category) catetory as categoryId;

统计Music类别中的视频热度Top10

 1 select
 2 videoId,
 3 views
 4 from
 5 test
 6 where
 7 categoryId = "Music"
 8 order by
 9 views
10 desc limit
11 10;

6. 每个类别中视频流量 Top10,以Music为例

需求分析:   直接在5中创建的表中按照ratings(流量)排序

 1 select
 2 videoId,
 3 views,
 4 ratings
 5 from
 6 test
 7 where
 8 categoryId = "Music"
 9 order by
10 ratings
11 desc limit
12 10;

7.上传视频最多的用户 Top10 以及他们上传的视频

需求分析:   先找到上传视频最多的 10 个用户的用户信息,通过 uploader 字段与 youtube_orc 表进行 join,得到的信息按照 views 观看次数进行排序即可

 1 select
 2 t2.videoId,
 3 t2.views,
 4 t2.ratings,
 5 t1.videos,
 6 t1.friends
 7 from (
 8 select
 9 *
10 from
11 user_orc
12 order by
13 videos desc
14 limit
15 10) t1
16 join
17 video_orc t2
18 on
19 t1.uploader = t2.uploader
20 order by
21 views desc
22 limit
23 20;

8.每个类别视频观看数 Top10                

需求分析:  先得到 categoryId 展开的表数据,子查询按照 categoryId 进行分区,然后分区内排序,并生成递增数字,该递增数字这一列起名为 rank 列,通过子查询产生的临时表,查询 rank 值小于等于 10 的数据行即可

 1 select
 2 t1.*
 3 from (
 4 select
 5 videoId,
 6 categoryId,
 7 views,
 8 row_number() over(partition by categoryId order by views desc) rank from
 9 test) t1
10 where
11 rank <= 10;

9.可能出现的问题

JVM堆内存溢出

解决办法:  在 yarn-site.xml 中加入如下代码

<property>
    <name>yarn.scheduler.maximum-allocation-mb</name>
    <value>2048</value>
</property>
<property>
    <name>yarn.scheduler.minimum-allocation-mb</name>
    <value>2048</value>
</property>
<property>
    <name>yarn.nodemanager.vmem-pmem-ratio</name>
    <value>2.1</value>
</property>
<property>
    <name>mapred.child.java.opts</name>
    <value>-Xmx1024m</value>
</property>

转载于:https://www.cnblogs.com/perfectdata/p/10070676.html

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值