虚拟机环境准备1-4

目录

6). 配置集群

 1.1 core

1.2 hdfs

 1.3 yarn

1.4 mapred

7).启动集群

1.格式化

2.启动hdfs

3.在配置了ResrouceManager的节点启动Yarn

4.web查看

 9.测试集群


6). 配置集群

core,hdfs,yarn,mapred:皆在/opt/module/hadoop/etc/hadoop下(三台服务器都要配置)

 1.1 core

<!-- 指定NameNode的地址-->
<property>
	<name>fs.defaultFS</name>
	<value>hdfs://slave2:8020</value>
</property>
<!-- 指定hadoop数据存储目录-->
<property>
	<name>hadoop.tmp.dir</name>
	<value>/opt/module/hadoop/data</value>
</property>

1.2 hdfs

<!-- nn web端访问地址-->
<property>
	<name>dfs.namenode.http-address</name>
	<value>slave1:9870</value>
</property>
<!-- 2nn web端访问地址-->
<property>
	<name>dfs.namenode.secondary.http-address</name>
	<value>master:9868</value>
</property>

 1.3 yarn

<!-- 指定MR走shuffle-->
<property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
</property>
<!-- 指定ResourceManager地址-->
<property>
        <name>yarn.resourcemanager.hostname</name>
        <value>slave2</value>
</property>
<!-- 环境变量的继承-->
<property>
        <name>yarn.nodemanager.env-whitelist</name>
        <value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_HOME,HADOOP_MAPRED_HOME</value>
</property>

1.4 mapred

<!-- 指定MapReduce程序运行在yarn上-->
<property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
</property>

配置workers: 把localhost替换成三台服务器的主机名(不允许有空格和无用的回车换行)

7).启动集群

jps查看进程

1.格式化

hdfs namenode -format

2.启动hdfs

sbin/start-dfs.sh

3.在配置了ResrouceManager的节点启动Yarn

sbin/start-yarn.sh

4.web查看

  1. 浏览器输入:http;//slave1:9870
  2. 查看hdfs上存储的数据信息
  3. 输浏览器输入http://slave2:8088
  4. 查看Yarn中运行的job信息

8.配置ssh

密钥生成:输入ssh-keygen -t rsa (然后连续按三次回车)

公钥分发:输入ssh-copy-id host(主机名)

9.测试集群

创建文件夹
hadoop fs -mdkir abc

上传文件
hadoop fs -put 文件路径/文件名

查看文件存在什么位置
/opt/module/hadoop/data/dfs/data/current/BP-1380068889-192.168.222.202-1656925034090/current/finalized/subdir0/subdir0

查看hdfs在磁盘存储文件内容
cat blk.....

拼接
cat blk.... >> 文件名.tar.gz
tar- zxvf 文件名.tar.gz -C 路径

下载
hadoop fs -get 文件名 存储路径(./当前)

启用wordcount(路径是集群的路径)
hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount /abc/abc.txt /output

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值