Hadoop安装

CentOS镜像:
下载地址

虚拟机改名字hostnamectl set-hostname master

在这里插入图片描述

reboot重启虚拟机命令

用ip addr查看ip地址
在这里插入图片描述

安装上传文件得到rz指令:yum install lrzsz -y

在这里插入图片描述

解压jdk命令: tar -zxvf 解压包名称
mv jdk1.8.0_202/ jdk1.8改jdk名字
配置jdk环境vi /etc/profile

在这里插入图片描述

export JAVA_HOME=/usr/local/soft/jdk1.8
export PATH=.:$JAVA_HOME/bin:$PATH

然后执行命令:source /etc/profile

检验jdk是否安装成功:java -version

克隆2个虚拟机(完整克隆)

链接xshell(记住用户名和密码)

解压hadoop

命令:tar -zxvf 解压包名称

直接关闭防火墙

systemctl stop firewalld
systemctl status firewalld
systemctl disable firewalld

在这里插入图片描述

免密登录 ssh-keygen -t rsa

vi /etc/hosts写IP之间的映射

192.168.44.129 master
192.168.44.130 node1
192.168.44.131 node2

将密钥拷贝到其他两个子节点,命令如下:

ssh-copy-id -i node1
ssh-copy-id -i node2

实现主节点master本地免密码登录

首先进入到/root 命令:cd /root
再进入进入到 ./.ssh目录下
然后将公钥写入本地执行命令:cat ./id_rsa.pub >> ./authorized_keys
在这里插入图片描述

将hosts文件拷贝到node1和node2节点

命令:
scp /etc/hosts node1:/etc/hosts
scp /etc/hosts node2:/etc/hosts
cd /usr/local/soft

* 修改hadoop-env.sh文件

export JAVA_HOME=/usr/local/soft/jdk1.8
export JAVA_HOME=${JAVA_HOME}

***修改 core-site.xml

将下面的配置参数加入进去修改成对应自己的

<configuration><property><name>fs.defaultFS</name><value>hdfs://master:9000</value></property><property><name>hadoop.tmp.dir</name><value>/usr/local/soft/hadoop-2.7.7/tmp</value></property><property><name>fs.trash.interval</name><value>1440</value></property>

</configuration>

修改 hdfs-site.xml 将dfs.replication设置为1

  <property><name>dfs.replication</name><value>1</value>

  </property>

  <property><name>dfs.permissions</name><value>false</value>

  </property>

文件yarn-site.xml

<configuration><property>

<name>yarn.resourcemanager.hostname</name>

<value>master</value>

</property>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarn.log-aggregation-enable</name>

<value>true</value>

</property>

<property>

<name>yarn.log-aggregation.retain-seconds</name>

<value>604800</value>

</property>

<property>  

  <name>yarn.nodemanager.resource.memory-mb</name>  

  <value>20480</value>  

</property>  

<property>  

  <name>yarn.scheduler.minimum-allocation-mb</name>  

  <value>2048</value>  

</property>  

<property>  

 <name>yarn.nodemanager.vmem-pmem-ratio</name>  

 <value>2.1</value>  

</property>  

</configuration>

**修改 mapred-site.xml(将map red-site.xml.template 复制一份为 mapred-site.xml

命令:cp mapred-site.xml.template mapred-site.xml
<configuration>
  <property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>  
<name>mapreduce.jobhistory.address</name>  
<value>master:10020</value>  
</property>  
<property>  
<name>mapreduce.jobhistory.webapp.address</name>  
<value>master:19888</value>  
</property>
</configuration>

在这里插入图片描述

,将hadoop的安装目录分别拷贝到其他子节点

 scp -r /usr/local/soft/hadoop-2.7.7  node1:/usr/local/soft/
 scp -r /usr/local/soft/hadoop-2.7.7  node2:/usr/local/soft/

启动hadoop

首先看下hadoop-2.7.7目录下有没有tmp文件夹。

如果没有 执行一次格式化命令:

cd  /usr/local/soft/hadoop-2.7.7目录下

执行命令:

./bin/hdfs namenode -format

会生成tmp文件。

然后在/usr/local/soft/hadoop-2.7.7目录下

 启动执行:./sbin/start-all.sh

关闭hadoop
在这里插入图片描述
关闭虚拟机shutdown

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
提供的源码资源涵盖了安卓应用、小程序、Python应用和Java应用等多个领域,每个领域都包含了丰富的实例和项目。这些源码都是基于各自平台的最新技术和标准编写,确保了在对应环境下能够无缝运行。同时,源码中配备了详细的注释和文档,帮助用户快速理解代码结构和实现逻辑。 适用人群: 这些源码资源特别适合大学生群体。无论你是计算机相关专业的学生,还是对其他领域编程感兴趣的学生,这些资源都能为你提供宝贵的学习和实践机会。通过学习和运行这些源码,你可以掌握各平台开发的基础知识,提升编程能力和项目实战经验。 使用场景及目标: 在学习阶段,你可以利用这些源码资源进行课程实践、课外项目或毕业设计。通过分析和运行源码,你将深入了解各平台开发的技术细节和最佳实践,逐步培养起自己的项目开发和问题解决能力。此外,在求职或创业过程中,具备跨平台开发能力的大学生将更具竞争力。 其他说明: 为了确保源码资源的可运行性和易用性,特别注意了以下几点:首先,每份源码都提供了详细的运行环境和依赖说明,确保用户能够轻松搭建起开发环境;其次,源码中的注释和文档都非常完善,方便用户快速上手和理解代码;最后,我会定期更新这些源码资源,以适应各平台技术的最新发展和市场需求。
Hadoop是一个开源的分布式计算系统,用于处理大规模数据集的分布式存储和处理。下面是Hadoop安装步骤: 1. 下载Hadoop:你可以从Apache官方网站上下载Hadoop的最新版本。选择合适的版本和文件类型进行下载。 2. 解压Hadoop压缩包:将下载的压缩包解压到你想要安装Hadoop的路径下。 3. 配置环境变量:编辑你的环境变量文件(如.bashrc或.profile),将Hadoop的bin目录添加到PATH变量中。例如,在.bashrc文件中添加以下行: export HADOOP_HOME=/path/to/hadoop export PATH=$PATH:$HADOOP_HOME/bin 保存文件后,运行以下命令使其生效: source ~/.bashrc 4. 配置Hadoop:进入Hadoop安装目录,在conf目录下找到core-site.xml、hdfs-site.xml、mapred-site.xml和yarn-site.xml这四个配置文件,进行必要的配置。主要配置项包括文件系统的URI、数据存储路径、任务调度器等。 5. 设置SSH无密码登录:Hadoop使用SSH来管理集群节点之间的通信,因此需要设置SSH无密码登录。确保你可以通过SSH无密码登录到本地和所有集群节点。 6. 格式化HDFS文件系统:在Hadoop安装目录下执行以下命令,格式化HDFS文件系统: hdfs namenode -format 7. 启动Hadoop集群:执行以下命令启动Hadoop集群: start-dfs.sh # 启动HDFS start-yarn.sh # 启动YARN 执行以上命令后,你可以通过Web界面访问Hadoop的各个组件。 以上是基本的Hadoop安装步骤,请根据自己的需求进行相应的配置和调整。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值