hadoop -mapreduce wordcount 案例 - hdfs 文件的上传

本文介绍了如何在Hadoop环境下,通过创建文件、编写内容并启动HDFS服务,将本地wordcount.txt文件上传至HDFS。步骤包括创建数据目录、编写测试文件、启动Hadoop集群以及使用hdfs dfs-put命令实现文件上传。
摘要由CSDN通过智能技术生成

hadoop -mapreduce wordcount 案例 - hdfs 文件的上传

上一篇博客,写的jdk的搭建和hadoop单节点的安装 ,后面将写mapreduce 在hadoop中的应用,这里先准备一下数据,将数据上传到hdfs文件系统中

  1. 首先,我们先在home文件夹下,创建一个文件夹,存储我们的数据
cd  /home
mkdir  data
  1. 然后闯将一个文件,用于wordcount测试
touch  wordcount.txt
  1. 然后在问价加下写入以下内容,将用于测试

hello,world,hello,hadoop,linux,linux,linux
hello,hadoop,hadoop,linux
world,world,hadoop
hello,world,hello
world,linux,linux

  1. 之后,我们需要启动 hadoop 集群,若已启动好,这一步,则可以跳过

注:启动hadoop 需要在root权限下

这里到hadoop的启动文件目录下执行,进行启动,我存放的地点在 /hadoop/hadoop-2.6.0
所以

cd  /hadoop/hadoop-2.6.0
sbin/start-all.sh

#之后可以查看是否启动完成
jps

出现这下面图片显示成功

在这里插入图片描述

  1. 之后即可上传wordcount.txt 文件,首先我们还得创建一个文件夹存放文件
hdfs dfs -mkdir /wordcount

#之后上传文件
cd /home/data
hdfs dfs -put wordcount.txt  /mkdir

可以进行进hdfs文件系统界面进行查看

显示如下结果则成功上传
在这里插入图片描述
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值