【Hadoop部署】Hadoop环境部署1-Linux基础设置

1、先临时性设置虚拟机ip地址:

ifconfig ens33 192.168.71.110
在/etc/hosts文件中配置本地ip到host的映射

2、配置windows主机上的hosts文件:

C:\Windows\System32\drivers\etc\hosts
192.168.71.110 sparkproject1
192.168.71.111 sparkproject2
192.168.71.112 sparkproject3

3、使用SecureCRT从windows上连接虚拟机。如下修改虚拟机网络。

设置hosts后,即可使用名称代替IP使用。
vim /etc/hosts
192.168.71.110 sparkproject1
192.168.71.111 sparkproject2
192.168.71.112 sparkproject3

设置网络为固定IP,只需要把文件内容删除用下述替换即可
vi /etc/sysconfig/network-scripts/ifcfg-ens33

DEVICE=ens33
TYPE=Ethernet
ONBOOT=yes
BOOTPROTO=static
IPADDR=192.168.71.110
NETMASK=255.255.255.0
GATEWAY=192.168.71.2
DNS1=114.114.114.114

原来的信息备份,可供配置失败的同学做参考。

TYPE=Ethernet
PROXY_METHOD=none
BROWSER_ONLY=no
BOOTPROTO=dhcp
DEFROUTE=yes
IPV4_FAILURE_FATAL=no
IPV6INIT=yes
IPV6_AUTOCONF=yes
IPV6_DEFROUTE=yes
IPV6_FAILURE_FATAL=no
IPV6_ADDR_GEN_MODE=stable-privacy
NAME=ens33
UUID=347cebc3-8bd3-4513-a49c-9647924efd89
DEVICE=ens33
ONBOOT=yes

重启网卡,使修改生效

service network restart

关闭防火墙、关闭安全检查、免密登录

service firewalld stop
systemctl disable firewalld.service

vim /etc/selinux/config

设置免密访问,这样就
ssh-keygen -t rsa
cd /root/.ssh
cp id_rsa.pub authorized_keys

环境变量

把所有需要的环境变量一次性先配置了,在如下文件的最后添加
vim ~/.bashrc

export JAVA_HOME=/usr/local/java
export PATH=$PATH:$JAVA_HOME/bin

export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin

export FLUME_HOME=/usr/local/flume
export PATH=$PATH:$FLUME_HOME/bin

export HIVE_HOME=/usr/local/hive
export PATH=$PATH:$HIVE_HOME/bin

export ZOOKEEPER_HOME=/usr/local/zk
export PATH=$PATH:$ZOOKEEPER_HOME/bin

export KAFKA_HOME=/usr/local/kafka
export PATH=$PATH:$KAFKA_HOME/bin

export SCALA_HOME=/usr/local/scala
export PATH=$PATH:$SCALA_HOME/bin

export SPARK_HOME=/usr/local/spark
export PATH=$PATH:$SPARK_HOME/bin

更新环境变量
source ~/.bashrc

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值