hadoop_虚拟机linux环境部署全教程

hadoop_虚拟机linux环境部署:

一、 网卡设置
  1. 使用VMnet8虚拟网卡
  2. 网段设置为:192.168.88.0
  3. 网关设置为:192.168.88.2
二、安装Linux操作系统

下载地址:https://vault.centos.org/7.6.1810/isos/x86_64/

三、Linux系统配置
  • 修改主机名:hostnamectl set-hostname node1

  • 修改IP地址:Vim /etc/sysconfig/network-scripts/ifcfg-ens33

    IPADDR = “192.168.88.101”

  • 设置子网掩码:NETMASK=“255.255.255.0”

  • 修改:ONBOOT=“yes”

  • 修改:BOOTPROTO=“static”

  • 设置网关: GATEWAY=“192.168.88.2”

  • 设置DNS1服务器:DNS1=“192.168.88.2”

  • 重启网卡:

    systemctl stop network 与 systemctl start network

    或者 systemctl restart network

											# 补充知识点
# 1、切换root权限:su - 或者 su root
# 2、查询IP地址:ifconfig
四、配置主机名的映射
  • Windows环境配置

    文件地址:C:/Windows/System32/drivers/etc/hosts

    添加映射:

    192.168.88.101 node1

    192.168.88.102 node2

    192.168.88.103 node3

  • Linux环境配置

    文件地址:/etc/hosts

    添加映射:

    192.168.88.101 node1

    192.168.88.102 node2

    192.168.88.103 node3

五、配置SSH免密登录
  1. 在每一台机器都执行:“ssh-keygen -t rsa -b 4096”, 一路回车到底即可

  2. 在每一台机器都执行:

    ssh-copy-id node1
    ssh-copy-id node2
    ssh-copy-id node3
    
  3. 执行完毕后,node1,node2,node3之间将完成root用户之间的免密互通,跳转服务器" ssh node1"。

六、创建hadoop用户并配置免密登录

后续大数据的软件,将不会以root用户启动(确保安全,养成良好习惯)

将在linux里面创建一个单独的用户hadoop,并为三台服务器同样配置hadoop用户的免密互通。

1、在每一台机器执行:useradd hadoop, 创建hadoop用户

2、在每一台机器执行:passwd hadoop, 设置hadoop用户密码123456

3、在每一台机器均切换到hadoop用户:su hadoop,并执行 ssh-keygen -t rsa -b 4096, 创建ssh密钥

4、在每一台机器均执行:

ssh-copy-id node1
ssh-copy-id node2
ssh-copy-id node3
七、JDK环境部署
  1. 下载JDK软件:网址:https://www.oracle.com/java/technologies/downloads

  2. 创建文件夹,用来部署JDK,将JDK和Tomcat都安装部署到:/export/server内

    mkdir -p /export/server

  3. 解压缩JDK安装文件:

tar -zxvf jdk-8u351-linux-x64.tar.gz -C /export/server(linux可以用rz命令上传文件)

  1. 配置JDK的软链接:ln -s /export/server/jdk1.8.0_351 /export/server/jdk

    (linux软连接:它的功能是为某一个文件在另外一个位置建立一个同步的链接。简单来说,就是windows里面的快捷方式。)

    # ln -s target source
    # ln -s:表示创建一个软连接;
    # target:表示目标文件(夹),即源文件。
    # source:表示当前目录的软连接名,即被创建出来的软连接名称以及放置在何处。
    
  2. 配置JAVA_HOME环境变量,以及将$JAVA_HOME/bin文件夹加入PATH环境变量中

    # 编辑/etc/profile文件
    vim /etc/profile
    export JAVA_HOME=/export/server/jdk
    export PATH=$PATH:$JAVA_HOME/bin
    
  3. 生效环境变量:source /etc/profile

  4. 配置java执行程序的软连接

    # 删除系统自带的java程序
    rm -f /usr/bin/java
    # 软连接我们自己安装的java程序
    ln -s /export/server/jdk/bin/java /usr/bin/java
    
  5. 执行验证:

    java -version
    javac -version
    
八、关闭防火墙和SElinux
  1. 集群化软件之间需要通过端口互相通信,为了避免出现网络不通的问题,我们可以简单的在集群内部关闭防火墙。

    systemctl stop firewalld
    systemctl disable firewalld
    
  2. Linux有一个安全模块:SELinux,用以限制用户和程序的相关权限,来确保系统的安全稳定。

    在当前,我们只需要关闭SELinux功能,避免导致后面的软件允许出现问题即可。

    VIM /etc/sysconfig/selinux
    
    # 将第七行,SELinux=enforcing改为
    SELinux = disabled
    # 保存后退出,重启虚拟机即可,注意disabled单词不要写错,不然无法启动系统。
    
九、修改时区并配置自动时间同步

以下炒作在三台Linux均执行

  1. 安装ntp软件

    yum install -y ntp

  2. 更新时区

    rm -f /etc/localtime; sudo ln -s /usr/share/zoneinfo/Asia/Shanghai /etc/localtime

  3. 同步时间

    ntpdate -u ntp.aliyun.com

  4. 开启ntp服务并设置开机启动

    systemctl start ntpd

    systemctl enable ntpd

十、拍摄快照保存状态

点击拍摄快照

  • 1
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
Linux安装Hadoop可以按照以下步骤进行: 1. 首先,确保你已经在Linux系统上安装了Java Development Kit(JDK)。Hadoop是用Java编写的,所以需要先安装Java环境。 2. 下载Hadoop的二进制文件。你可以从Hadoop官方网站(https://hadoop.apache.org/)下载最新版本的Hadoop。 3. 解压下载的Hadoop压缩包。使用以下命令解压: ``` tar -xzvf hadoop-x.x.x.tar.gz ``` 4. 将解压后的Hadoop文件夹移动到你想要安装的目录。例如,可以将其移动到`/usr/local`目录下: ``` sudo mv hadoop-x.x.x /usr/local/hadoop ``` 5. 配置Hadoop环境变量。编辑`~/.bashrc`文件,并添加以下内容: ``` export HADOOP_HOME=/usr/local/hadoop export PATH=$PATH:$HADOOP_HOME/bin ``` 6. 使环境变量生效: ``` source ~/.bashrc ``` 7. 配置Hadoop的核心文件。进入Hadoop安装目录,并编辑`etc/hadoop/hadoop-env.sh`文件,设置Java环境变量: ``` export JAVA_HOME=/path/to/java ``` 8. 配置Hadoop集群的相关文件。主要包括`core-site.xml`、`hdfs-site.xml`和`mapred-site.xml`。这些文件位于`etc/hadoop`目录下。你可以根据自己的需求进行配置,例如设置Hadoop的工作目录、数据存储目录、日志目录等。 9. 格式化Hadoop文件系统。使用以下命令格式化HDFS: ``` hdfs namenode -format ``` 10. 启动Hadoop集群。使用以下命令启动Hadoop: ``` start-all.sh ``` 至此,你已经成功在Linux安装并启动了Hadoop。你可以通过访问Hadoop的Web界面(默认为http://localhost:50070)来验证Hadoop是否正常运行。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

虎啸丶山林

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值