Hadoop伪分布基本搭建

Linux配置网络

vi /etc/sysconfig/network-scripts/ifcfg-ens33

ONBOOT=yes

BOOTPROTO=static

并增加如下几行字符

IPADDR=192.168.144.137

NETMASK=255.255.255.0

GATEWAY=192.168.144.2

DNS1=192.168.144.2

DNS2=8.8.8.8

上面改成自己的IP

重启网络服务

service network restart

ping baidu.com                   实验网络是否通

yum install -y vim          安装vim

关闭防火墙

systemctl status firewalld # 查看防火墙状态   

systemctl stop firewalld     # 关闭防火墙

systemctl disable firewalld # 取消防火墙自启动

修改主机名称

vim /etc/hostname

hadoop   (自己定义)

修改IP地址映射文件

vim /etc/hosts

192.168.50.130 hadoop    <自己的ip地址> <定义的主机名>

修改windos C盘:\Windows\System32\drivers\etc\hosts 文件映射

192.168.50.130 hadoop          <和上面的ip一样>

创建文件夹

mkdir app software data tools

上传hadoop  jdk  文件到software

解压安装

tar -zxvf jdk-8u361-linux-x64.tar -C ~/app

tar -zxvf hadoop-3.3.1.tar.gz -C ~/app

创建软连接

(在root目录下使用)

ln -s /root/app/jdk-8u361-linux-x64 /root/app/java   

ln -s /root/app/hadoop-3.3.1 /root/app/hadoop

修改系统环境变量文件

  1. vim /etc/profile

# JAVA ENV

export JAVA_HOME=/root/app/java

export PATH=$PATH:$JAVA_HOME/bin

# HADOOP ENV

export HADOOP_HOME=/root/app/hadoop

export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

升级一下  source /etc/profile

vim ~/.bashrc

#JAVA ENV

export JAVA_HOME=/root/app/java

export JRE_HOME=$JAVA_HOME/jre

export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib

#HADOOP ENV

export HADOOP_HOME=/root/app/hadoop

#PATH

export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

升级一下

source ~/.bashrc

安装验证

java -version

hadoop version

配置Hadoop文件

(下列配置文件中的”主机名“要改成自己的主机名称)

cd app/hadoop/etc/hadoop   文件路径

vim hadoop-env.sh

export JAVA_HOME=/root/app/java

export HDFS_NAMENODE_USER=root

export HDFS_DATANODE_USER=root

export HDFS_SECONDARYNAMENODE_USER=root

export YARN_RESOURCEMANAGER_USER=root

export YARN_NODEMANAGER_USER=root

vim core-site.xml

<configuration>

        <property>

                        <name>hadoop.tmp.dir</name>

                        <value>/root/data/tmp</value>

        </property>

        <property>

                        <name>fs.defaultFS</name>

                        <value>hdfs://主机名:9000</value>

        </property>

</configuration>

vim hdfs-site.xml

<configuration>

        <property>

                <name>dfs.replication</name>

                <value>1</value>

        </property>

        <property>

                <name>dfs.namenode.name.dir</name>

                <value>/root/data/dfs/name</value>

        </property>

        <property>

                <name>dfs.datanode.data.dir</name>

                <value>/root/data/dfs/data</value>

        </property>

        <property>

                <name>dfs.namenode.checkpoint.dir</name>

                <value>/root/data/dfs/namesecondary</value>

        </property>

        <property>

                <name>dfs.namenode.secondary.http-address</name>

                <value>主机名:9868</value>

        </property>

        <property>

                <name>dfs.permissions</name>

                <value>false</value>

        </property>

</configuration>

vim mapred-site.xml

<configuration>

                <property>

                        <name>mapreduce.framework.name</name>

                        <value>yarn</value>

                </property>

</configuration>

vim yarn-site.xml

<configuration>

                <property>

                        <name>yarn.resourcemanager.hostname</name>

                        <value>主机名</value>

                </property>

                <property>

                        <name>yarn.nodemanager.aux-services</name>

                        <value>mapreduce_shuffle</value>

                </property>

</configuration>

vim workes

<自己的主机名>                      (完全分布的也是一样)

ssh免密登录 

(可以做完全分布的时候做免密登录,也可以做伪分布的时候做)

ssh-keygen -t rsa

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

hdfs namenode -format   格式化集群服务  启动集群服务

然后jps一下看一下几个值六个是正确的

  • 23
    点赞
  • 21
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是Hadoop分布搭建的步骤: 1.安装Java环境 2.下载Hadoop压缩包并解压 3.配置Hadoop环境变量 4.配置Hadoop的三个核心文件:core-site.xml、hdfs-site.xml、mapred-site.xml 5.格式化HDFS文件系统 6.启动Hadoop 具体步骤如下: 1.安装Java环境 Hadoop是基于Java开发的,因此需要先安装Java环境。可以通过以下命令安装: ```shell sudo apt-get update sudo apt-get install default-jdk ``` 2.下载Hadoop压缩包并解压 可以从Hadoop官网下载最新版本的Hadoop压缩包,也可以使用以下命令下载: ```shell wget https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-3.3.1/hadoop-3.3.1.tar.gz ``` 下载完成后,解压缩: ```shell tar -zxvf hadoop-3.3.1.tar.gz ``` 3.配置Hadoop环境变量 在.bashrc文件中添加以下内容: ```shell export HADOOP_HOME=/path/to/hadoop export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin ``` 然后运行以下命令使配置生效: ```shell source ~/.bashrc ``` 4.配置Hadoop的三个核心文件:core-site.xml、hdfs-site.xml、mapred-site.xml 在Hadoop的conf目录下,有三个核心文件需要配置:core-site.xml、hdfs-site.xml、mapred-site.xml。 core-site.xml的配置: ```xml <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration> ``` hdfs-site.xml的配置: ```xml <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/path/to/hadoop/hadoop_data/hdfs/namenode</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/path/to/hadoop/hadoop_data/hdfs/datanode</value> </property> </configuration> ``` mapred-site.xml的配置: ```xml <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration> ``` 5.格式化HDFS文件系统 在Hadoop的bin目录下,运行以下命令格式化HDFS文件系统: ```shell hdfs namenode -format ``` 6.启动HadoopHadoop的sbin目录下,运行以下命令启动Hadoop: ```shell start-all.sh ``` 以上是Hadoop分布搭建的步骤,如果需要更详细的步骤和说明,可以参考Hadoop官方文档。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值