Hadoop实战系列之MapReduce 分析 Youtube视频数据_hadoop 怎么解析视频文件

img
img
img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

需要这份系统化资料的朋友,可以戳这里获取

本文知识点:
eclipse 的 Hadoop 开发环境搭建
编写 MR 程序
本地运行
生成 Jar 包提交 yarn 运行(远程运行)

本机环境
Hadoop 2.5.1
eclipse indigo
Centos6.9
Jdk1.7

二、准备工作
2.1 数据集介绍及准备
博主使用 Youtube 视频数据集,相关的介绍可以访问 Youtube Dataset 网站查看。
该数据集各个字段的具体含义如下:

字段名解释及数据类型
video ID视频ID:每个视频均有唯一的11位字符串
uploader上传者用户名:字符串类型
age视频年龄:整数值,代表视频上传时间与2007年2月15日(Youtube创立日)的时间间隔
category分类:由上传者选择的视频分类,字符串类型
length视频长度:整数值
views浏览量:整数值
rate视频评分:浮点值
ratings评分次数:整数值
comments评论数:整数值
related IDs相关视频ID:数量不超过20个,每一个相关视频的ID均为单独的一列

数据内容如图:
这里写图片描述

每一行为一条数据,本次实战共1000w条数据。(由于任务量有要求,但是下载的数据只有50w条,因此复制了20份合并成一个数据文件。共1000w条数据。)

每条记录的相关视频数量不尽相同,因此数据不是很整齐。我们需要过滤掉无效字段,稍后会给出项目详细代码注释。

终端下使用 wc -l 命令查看数据文件的行数。

使用 head -n 1 命令查看数据文件的第一条记录。

2.2 环境准备
由于要写 MapReduce 程序,必然要有 eclispe 下的 Hadoop 开发环境。我们又希望以生成 jar 包的方式提交和运行在 Hadoop 环境中,所以必须安装 Hadoop 。

使用 start-all.sh 命令启动所有服务。

使用 jps 命令可以查看到 NameNode、SecondaryNameNode、NodeManager、ResourceManager 和 DataNode 已启动。

三、项目需求描述
根据已有数据集,编写 MapReduce 程序,实现以下功能:

从视频数据中,分别统计每一个视频类型下的视频数量,数据之间采用”\t”分隔符隔开。

四、项目实现过程
4.1 创建Map/Reducer项目:
双击桌面上的eclipse图标,创建项目:file->other->Map/Reducer Project->Next->Project name创建名为VideoCount的项目名,然后创建名为com.zout的包,接着在包里面创建一个java类,类名为VideoCount,
图示:
这里写图片描述

这里写图片描述

4.2 编写代码
VideoCount.java 代码如下:

package com.zout;
import org.apache.hadoop.conf.*;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.*;
import org.apache.hadoop.mapreduce.*;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.input.TextInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.mapreduce.lib.output.TextOutputFormat;
import java.io.IOException;

 /\*\*
 \* 
 \* @author zoutao
 \* @time 2018/7/3
 \* @see 分析Youtube视频数据
 \*
 \*/
public class VideoCount {
    //主函数
    public static void main(String[] args) throws Exception {
        Configuration conf = new Configuration();
        @SuppressWarnings("deprecation")
        Job job = new Job(conf, "categories");
       //指定导出的jar包路径 
      job.setJar("/home/gznc/myjar/VideoCount.jar");
        //设置生产 jar 包所使用的类
        job.setJarByClass(VideoCount.class);
        //设置 Map 类的输入输出类型
        job.setMapOutputKeyClass(Text.class);
        job.setMapOutputValueClass(IntWritable.class);
        //设置 Reduce 类的输入输出类型 
        job.setOutputKeyClass(Text.class);
        job.setOutputValueClass(IntWritable.class);
        //设置 Map, Reduce 类的 class 参数
        job.setMapperClass(Map.class);
        job.setReducerClass(Reduce.class);
        //指定格式化用的类型
        job.setInputFormatClass(TextInputFormat.class);
        job.setOutputFormatClass(TextOutputFormat.class);
        //指定要分析的数据文件路径--0.txt
        FileInputFormat.addInputPath(job,
            new Path("hdfs://master:9000/inputVideo/0.txt"));
        //指定输出的文件路径--out2文件夹下
        FileOutputFormat.setOutputPath(job, new Path("hdfs://master:9000/out2/"));
        //完成任务以后的提示信息
        boolean flag = job.waitForCompletion(true);
        System.out.println("任务完成"+flag);
        System.exit(flag?0:1);
        System.out.println();
    }

  //Map类,封装KV键值对 <k1,v1,k2,v2> , k1 是偏移量,v1 是这行数据
    public static class Map extends Mapper<LongWritable, Text, Text, IntWritable> {
        private final static IntWritable one = new IntWritable(1);

        //构造文本类Text对象、IntWritable 对象,也可以直接以匿名函数的方式创建
        private Text tx = new Text();

        //map 的逻辑,使用tab“\ t”分隔符来分割行,并将值存储在String Array中,以使一行中的所有列都存储在字符串数组中
        public void map(LongWritable key, Text value, Context context)
            throws IOException, InterruptedException {
            //拿到每一行数据
            String line = value.toString();
            String[] str = line.split("\t");

            //过滤掉多余的字段
            if (str.length > 5) {
                tx.set(str[3]);
            }

            //输出key,value
            context.write(tx, one);
        }
    }

    //编写 reduce,接收 map 阶段传来的 kv 键值对,输出的类型和传进来的类型一致
    public static class Reduce extends Reducer<Text, IntWritable, Text, IntWritable> {
        //reduce????
        public void reduce(Text key, Iterable<IntWritable> values,
            Context context) throws IOException, InterruptedException {
            int sum = 0;

            //累加求类别的视频数量
            for (IntWritable v : values) {
                sum += v.get();
            }

            //写入文本文件中输出
            context.write(key, new IntWritable(sum));
        }
    }
}

4.3 导出jar包
编码完成以后,我们可以需要导出jar包。

img
img
img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

需要这份系统化资料的朋友,可以戳这里获取

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

需要这份系统化资料的朋友,可以戳这里获取

  • 23
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: HadoopMapReduce实战案例有很多,以下是一些常见的案例: 1. WordCount:统计文本中单词出现的次数。 2. TopN:找出文本中出现次数最多的前N个单词。 3. 求平均值:计算文本中一列数字的平均值。 4. 倒排索引:将文本中的单词与出现的文档建立索引,方便快速查找。 5. 关联规则挖掘:通过分析大量数据,找出其中的关联规则,如购物篮分析。 6. 图像处理:通过MapReduce处理大量图像数据,如图像分类、图像识别等。 7. 推荐系统:通过分析用户行为数据,为用户推荐相关的产品或服务。 8. 日志分析:通过MapReduce处理大量日志数据,如网站访问日志、服务器日志等,分析用户行为、系统性能等。 以上是一些常见的HadoopMapReduce实战案例,实际应用中还有很多其他的案例。 ### 回答2: Hadoop是一个开源的分布式存储和处理大数据的解决方案,而MapReduceHadoop中的一种计算框架。其实战案例很多,下面就列举一些经典的案例。 1. 单词计数:在一个大文本文件中统计每个单词出现的次数,是Hadoop入门案例。MapReduce的Map函数进行分割文本并将每个单词都映射到(key,value)对上,reduce函数对同一个key的value进行合并并输出。 2. 网页排名:Google使用了PageRank算法对网页搜索结果进行排序,而这个排序算法的实现就是MapReduce模型。Map函数将网页信息和链接信息映射到(key,value)对上,reduce函数计算网页的排名并输出。 3. 日志分析:大型网站的日志通常非常庞大,Hadoop可应用于实时分析与处理这些日志。MapReduce的Map函数解析日志并提取重要信息,reduce函数进行计数统计或者聚合操作。 4. 图像处理:MapReduce模型常用于图像识别、处理和分析。Map函数把处理的图像块分配到不同的机器上,在不同的机器上并行化地处理。而reduce函数通常用于汇总结果并输出。 这些案例只是MapReduceHadoop中的应用之一,Hadoop还可以通过Hive、Pig等组件来对数据进行高层次的查询、脚本处理和数据分析Hadoop在大数据领域的应用日益广泛,如商业智能、金融风控、医疗健康等,在数据收集、存储和处理中扮演着重要的角色。 ### 回答3: Hadoop是一个大数据处理平台,而MapReduce是其中最主要的一种分布式计算框架。MapReduce的核心思想是将一个大数据集拆分成多个子集,然后通过并行计算将这些子集进行处理得到最终结果。 在实际应用中,人们利用HadoopMapReduce来处理各种各样的大数据问题。下面我们来介绍一些MapReduce实战案例: 1.单词统计 这是一个最简单却也最典型的案例。它的思路是读入一个大文本文件,然后将文件中每个单词逐个拆分出来,统计每个单词出现的频次,并将结果输出。这个过程可以通过MapReduce的"map"和"reduce"函数来实现。其中"map"函数负责将文本文件拆分成单词,将每个单词与1这个数字配对,并将结果输出。而"reduce"函数负责将配对结果按照单词将其分组,然后将每组中所有数字进行累加,得到每个单词的频次。 2. 声明式流媒体处理 MapReduce不仅仅是用来处理静态的大数据,还可以用来处理流媒体数据。具体来说,就是将流媒体数据流中的元素分割成小块,逐块对其进行MapReduce运算处理,得到最终结果。例如,在一个音乐流媒体应用中,我们可以通过MapReduce对歌曲库进行快速索引,以便用户能够快速检索和播放他们喜爱的歌曲。同时,在流媒体数据处理过程中,MapReduce还能够根据所处理的数据类型,自动调整MapReduce算法的参数和并行度,以确保处理效率和质量。 3.处理图形数据 图形处理是一个非常关键的应用领域。通过MapReduce计算框架,我们能够处理极大规模的图形数据集,例如在社交网络中对用户关系进行建模或者对搜索引擎中的网页链接关系进行分析。具体操作过程是,我们首先通过MapReduce的"map"函数将每个节点的邻居节点列表作为输出键值,将每个节点的ID作为输出值。然后通过MapReduce的"reduce"函数将具有相同邻居节点的节点交给同一个处理器进行处理。最终,我们得到的结果是每个节点及其所有邻居节点的详细信息。 总之,以上三个案例充分展示了MapReduce在大数据处理过程中的应用价值。作为一种分析大规模数据和自动化处理复杂问题的工具,MapReduce框架不仅使我们能够更好地管理和分析数据,而且还推动了数据处理领域的创新和发展。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值