linux虚拟机中Hadoop的伪分布安装(学习集群使用)

linux虚拟机中Hadoop的伪分布安装(至少3台虚拟机)

(1)在/opt/目录下创建hadoopdata目录用于存放hadoop集群的数据,上传hadoop的压缩包,并解压到/opt/目录下。
在这里插入图片描述
在这里插入图片描述
(2)编辑hadoop-env.sh 配置自己jdk路径,如果JDK配置过JAVA_HOME 环境变量,此步可跳过。
(3)cd 进入目录 /opt/hadoop-2.7.2/etc/hadoop/
编辑core-site.xml文件。此处配置默认ip地址、端口、读取文件缓冲大小。 添加xml块:

<!--配置HDFS文件系统的命名空间-->
<property>
<name>fs.defaultFS</name>
<!--服务器主机名字与端口-->
<value>hdfs://theone:9000</value>
</property>
<!--HDFS读取文件的缓冲大小-->
<property>
<name>io.file.buffer.size</name>
<value>4096</value>
</property>

(4)编辑hdfs-site.xml,配置副本数等。

<!--配置hdfs文件系统的副本数-->
<property>
<name>dfs.replication</name>
<value>3</value>
</property>

<!--指定hdfs文件系统的元数据存放目录-->
<property>
<name>dfs.namenode.name.dir</name>
<value>file:///opt/hadoopdata/dfs/name</value>
</property>

<!--指定hdfs文件系统的数据块存放目录-->
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///opt/hadoopdata/dfs/data</value>
</property>

<!--配置HDFS的web管理地址-->
<property>
<name>dfs.http.address</name>
<value>theone:50070</value>
</property>

<!--配置secondaryNamenode的web管理地址-->
<property>
<name>dfs.secondary.http.address</name>
<!--第二台服务器名字与端口-->
<value>thetwo:50090</value>
</property>

<!--配置是否打开web管理-->
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>

<!--指定hdfs文件系统权限是否开启-->
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>

(5)复制mapred-site.xml.template内容到一个新文件:
cp mapred-site.xml.template mapred-site.xml 编辑这个文件

<!--指定mapreduce运行的框架名-->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
<final>true</final>
</property>
<!--配置mapreduce的历史记录组件的内部通信地址-->
<property>
<name>mapreduce.jobhistory.address</name>
<value>theone:10020</value>
</property>
<!--配置mapreduce的历史记录服务的web管理地址-->
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>theone:19888</value>
</property>
<property>
<name>mapreduce.job.ubertask.enable</name>
<value>true</value>
</property>
<property>
<name>mapreduce.job.ubertask.maxmaps</name>
<value>9</value>
</property>
<property>
<name>mapreduce.job.ubertask.maxreduces</name>
<value>1</value>
</property>

(6)编辑yarn-site.xml ,配置resourcemanager的相关信息

<!-- Site specific YARN configuration properties -->
<!--指定resourcemanager所启动服务的主机名/ip-->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>theone</value>
</property>
<!--指定mapreduce的shuffle处理数据方式-->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<!--配置resourcemanager内部通讯地址-->
<property>
<name>yarn.resourcemanager.address</name>
<value>theone:8032</value>
</property>
<!--配置resourcemanager的scheduler组件的内部通信地址-->
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>theone:8030</value>
</property>
<!--配置resource-tracker组件的内部通信地址-->
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>theone:8031</value>
</property>
<!--配置resourcemanager的admin的内部通信地址-->
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>theone:8033</value>
</property>
<!--配置yarn的web管理地址-->
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>theone:8088</value>
</property>

<!--yarn的聚合日志是否开启-->
  <property>
    <name>yarn.log-aggregation-enable</name>
    <value>true</value>
  </property>
<!--聚合日志报错hdfs上的时间-->
  <property>
    <name>yarn.log-aggregation.retain-seconds</name>
    <value>86400</value>
  </property>
  <!--聚合日志的检查时间段-->
  <property>
    <name>yarn.log-aggregation.retain-check-interval-seconds</name>
    <value>3600</value>
  </property>
<!---->
  <property>
    <name>yarn.nodemanager.log.retain-seconds</name>
    <value>10800</value>
  </property>
<!--当应用程序运行结束后,日志被转移到的HDFS目录(启用日志聚集功能时有效)-->
  <property>
    <name>yarn.nodemanager.remote-app-log-dir</name>
    <value>/opt/hadoopdata/logs</value>
  </property>

(7)编辑slaves, 将三台虚拟机的主机名添加进去:
在这里插入图片描述
(8)编辑虚拟机的/etc/hosts文件配置映射信息
在这里插入图片描述
(9)将配置好的Hadoop-2.7.6发送给其他服务器节点: scp -r /opt/hadoop-2.7.6 root@192.168.8.130 /opt/hadoop-2.7.6 发送时会提示输入第二台的root用户密码
(10)配置ssh秘钥实现免密登录: ssh-keygen -t rsa 然后加四个回车创建一个秘钥。
使用ssh-copy-id localhost 命令发送自己的钥匙给其他服务器实现免密登录。
(11)使用命令: sh start-all.sh 开启服务 通过web端 http://ip地址: 50070 访问查看。

LinuxLinuxLinuxLinuxLinux5.65.65.6企业版 企业版 下成功搭建 下成功搭建 下成功搭建 HadoopHadoopHadoopHadoopHadoopHadoop分布 测试环境。本次在一台服务 测试环境。本次在一台服务 测试环境。本次在一台服务 测试环境。本次在一台服务 测试环境。本次在一台服务 测试环境。本次在一台服务 测试环境。本次在一台服务 测试环境。本次在一台服务 测试环境。本次在一台服务 器上进行分布式搭建。 器上进行分布式搭建。 器上进行分布式搭建。 器上进行分布式搭建。 器上进行分布式搭建。 器上进行分布式搭建。 Hadoop Hadoop Hadoop Hadoop Hadoop Hadoop Hadoop 分布式模是在单机上拟 分布式模是在单机上拟 分布式模是在单机上拟 分布式模是在单机上拟 分布式模是在单机上拟 分布式模是在单机上拟 分布式模是在单机上拟 Hadoop Hadoop Hadoop Hadoop Hadoop Hadoop Hadoop 分布式, 分布式, 单机上的分布式并不是真正,而使用线程模拟。 单机上的分布式并不是真正,而使用线程模拟。 单机上的分布式并不是真正,而使用线程模拟。 单机上的分布式并不是真正,而使用线程模拟。 单机上的分布式并不是真正,而使用线程模拟。 单机上的分布式并不是真正,而使用线程模拟。 单机上的分布式并不是真正,而使用线程模拟。 单机上的分布式并不是真正,而使用线程模拟。 单机上的分布式并不是真正,而使用线程模拟。 单机上的分布式并不是真正,而使用线程模拟。 单机上的分布式并不是真正,而使用线程模拟。 单机上的分布式并不是真正,而使用线程模拟。 单机上的分布式并不是真正,而使用线程模拟。 单机上的分布式并不是真正,而使用线程模拟。 单机上的分布式并不是真正,而使用线程模拟。 单机上的分布式并不是真正,而使用线程模拟。 单机上的分布式并不是真正,而使用线程模拟。 Hadoop Hadoop Hadoop Hadoop Hadoop Hadoop Hadoop 本身 是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是在单机器上配置,数据节点和名字均一个。 是在单机器上配置,数据节点和名字均一个。 是在单机器上配置,数据节点和名字均一个。 是
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值