Hadoop的伪分布式部署

1.配置集群环境

(1)修改第一个配置

/opt/module/hadoop-3.1.3/etc/hadoop目录下

设置hadoop-env.sh文件

Vi hadoop-env.sh

命令模式下输入/搜索JAVA_HOME

export JAVA_HOME=/opt/module/jdk1.8.0_212

(2)修改第二个配置

/opt/module/hadoop-3.1.3/etc/hadoop目录下

设置core-site.xml文件

Vi core-site.xml

 

(3)修改第三个配置

/opt/module/hadoop-3.1.3/etc/hadoop目录下

设置hdfs-site.xml文件

Vi hdfs-site.xml

命令:vi hdfs-site.xml

configuration中指定HDFS的数量

<configuration>

<!-- 指定HDFS副本的数量 -->

<property>

        <name>dfs.replication</name>

        <value>1</value>

</property>

</configuration>

  1. 启动集群
  1. 格式化namenode

命令:Hdfs namenode -format

  1. 启动namenode

命令:hdfs --daemon start

(3)如果出现进程启动不起来

/opt/module/hadoop3.1.3/有logs文件夹 需要删除

命令:cd /optmodule/hadoop3.1.3/

ll

rm -rf logs

1.启动resourcemanager

命令:yarn --daemon start resourcemanager

2.启动nodemanager

命令:yarn --daemon start nodemanager

3.Jsp查看java进程

命令:jsp

4.在HDFS中创建文件夹/user/input

命令:hdfs dfs -mkdir -p /user/input

5.将文件上传到HDFS

命令:hdfs  dfs  –put 要上传的文件名 上传的地址

例: hdfs  dfs  -put  wcinput/wc.input   /user/input/

6.查看hdfs的文件目录

命令:Hdfs dfs –ls 文件路径  

注意:这里面的根目录不是linux的根目录

案例:hdfs dfs -ls /user/input/

7.查看hdfs中文件内容

命令:hdfs dfs –cat 文件名

案例:hdfs dfs -cat /user/input/wc.input

  1. 执行文件

命令:hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount 执行的文件位置 输出的文件位置

例:hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount /user/input  /user/output

9.查看执行后的结果

命令:hdfs dfs -cat 输出文件路径/*

案例:hdfs dfs -cat /user/output/*

10.停止进程

hdfs –daemon stop namenode

Hdfs维护了一个抽象的目录

群起命令: start-all.sh

群停命令:stop-all.sh

  • 6
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值