大数据分析技术之MapReduce实践:词频统计(九)

写在开头:目前已经陆陆续续搭建好了Linux、Hadoop相关的环境,可以开始一些简单的实例演示了。后面也会陆续更新这个系列了。

学习内容安排

本阶段学习内容的安排的话可能没有具体的内容规划,不会去涉及环境配置、软件安装的内容,主要是以介绍使用为主,以实例出发。大数据需要在Linux系统上进行,然后现在电脑使用的软件如下(部分软件由于学习原因选择的老版本),

软件名称 备注
NetBeans IDE 8.2 JAVA编译器
CentOS 6.6 Linux系统
VMware Workstation11 桌面版虚拟机
SecureCRT 7.0.0 终端仿真程序
Hadoop 2.6.5 分布式框架
Hive 1.2.2 数据仓库

电脑配置和虚拟机分配方面,因为资金有限,笔记本配置只有16个g,创建了4台虚拟机组建了伪分布式,配置这些已经调整好了,可能还没有安装的朋友在这个安装过程中可能需要费电功夫了,下面开始今天的Mapreduce实战讲解吧。

MapReduce之词频统计

MapReduce的介绍一时半会儿可能解释不清楚,这里大家可以参考学习一下这篇MapReduce过程总结,讲得还是比较清楚了,好了让我们正式开始吧。
今天要完成的目标是对一个本地txt文档利用MapReduce进行统计分析,所需的流程1.上传数据2.编写MapReduce Java代码3.输出结果
1.上传数据
其实数据就是自己随意编写的一段话,首先需要从本地上传数据,假设我们本地数据放在c盘,然后需要知道自己的master主节点ip地址(可在linux中使用ifconfig进行查看)和上传的文件的目标文件夹,这里上传数据不是上传到linux里,而是直接上传到HDFS里,代码如下,

// 本地上传数据到HDFS
package com.mycompany.mavenproject1;

import java.io.IOException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;

public class NewClass {
   
    public static void main(String[] args) throws IOException {
   
        Configuration conf = new Configuration(); //初始化配置
        conf.set("fs.defaultFS", "hdfs://192.168.0.23:9000"); //连接数据库fs.defaultFS为配置文件、9000为端口号
        FileSystem file = FileSystem.get(conf);// 设置文件配置
        file.copyFromLocalFile(new Path(
  • 6
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值