Hadoop平台搭建(四)--Ya

Ya

  1. 切换到hadoop下面的etc(配置文件都在etc下面)
  2. 在hadoop中配置core-site.xml

Vi core-site.xml

指定HDFS中namenode的地址。将命令放到configuration标签中

<configuration>

<!-- 指定HDFS中NameNode的地址 -->

<property>

<name>fs.defaultFS</name>

    <value>hdfs://hadoop100:9820</value>

</property>

<!-- 指定Hadoop运行时产生文件的存储目录 -->

<property>

        <name>hadoop.tmp.dir</name>

        <value>/opt/module/hadoop-3.1.3/data/tmp</value>

</property>

</configuration>

3.在hadoop中配置hdfs-site.xml

命令:vi hdfs-site.xml

在configuration中指定HDFS的数量

<configuration>

<!-- 指定HDFS副本的数量 -->

<property>

        <name>dfs.replication</name>

        <value>1</value>

</property>

</configuration>

4.格式化NameNode(第一次启动时格式化,以后就不要总格式化)

格式化命令:hdfs namenode –format

5.启动namenode          

命令:hdfs  - -daemon  start  namenode

6.启动datanode

命令:hdfs  --daemon start datanode

7.配置yarn-site.xml

命令:vi yarn-site.xml

<configuration>

<!-- Site specific YARN configuration properties -->

<!-- Reducer获取数据的方式 -->

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<!-- 指定YARN的ResourceManager的地址 -->

<property>

<name>yarn.resourcemanager.hostname</name>

<value>hadoop100</value>

</property>

 <property>

  <name>yarn.nodemanager.env-whitelist</name>        <value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value>

 </property>

</configuration>

8.配置mapred-site.xml

命令:[root@hadoop100 hadoop]# vi mapred-site.xml

<configuration>

<!-- 指定MR运行在YARN上 -->

<property>

                <name>mapreduce.framework.name</name>

                <value>yarn</value>

</property>

</configuration>

9.启动resourcemanager

命令:[root@hadoop100 hadoop]# yarn --daemon start resourcemanager

10.启动nodemanager

命令:[root@hadoop100 hadoop]# yarn --daemon start nodemanager

11.Jsp查看java进程

命令:jsp

12.在HDFS中创建文件夹/user/input

命令:hdfs dfs -mkdir -p /user/input

13.将文件上传到HDF

命令:hdfs  dfs  –put 要上传的文件名 上传的地址

案例: hdfs  dfs  -put  wcinput/wc.input   /user/input/

14.查看hdfs的文件目录

命令:Hdfs dfs –ls 文件路径   

注意,这里面的根目录不是linux的根目录

案例:hdfs dfs -ls /user/input/

15.查看hdfs中文件内容

命令:hdfs dfs –cat 文件名

案例:hdfs dfs -cat /user/input/wc.input

16.执行文件

命令:hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount 执行的文件位置 输出的文件位置

案例:hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount /user/input  /user/output

17.查看执行后的结果

命令:hdfs dfs -cat 输出文件路径/*

案例:hdfs dfs -cat /user/output/*

18.停止进程 hdfs daemon stop namenode

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值