系列文章目录
Hadoop第一章:环境准备
前言
从现在开始记录自己的hadoop学习情况,计划博客一周一次
一、软件准备
- Vmare虚拟机
- centos7镜像
- Xshell
- Xftp
二、安装模板机
看我之前的一次博客
redhat安装
根据自己的硬件简单修改一下就行。
现在咱们假设安装完成。开启自己的虚拟机配置一下。
1.修改主机名
hostnamectl set-hostname hadoop100
2.修改IP
vim /etc/sysconfig/network-scripts/ifcfg-ens33
进行如下修改
3.添加普通用户
useradd atguigu
passwd atguigu
为其添加root权限
vim /etc/sudoers
直接加一行
4.创建文件目录
mkdir /opt/module
mkdir /opt/software
chown atguigu:atguigu /opt/module
chown atguigu:atguigu /opt/software
以后这个目录用来存放咱们的dadoop文件
5.卸载自带的jdk
rpm -qa | grep -i java | xargs -n1 rpm -e
由于博主这里已经安装好了,就不演示卸载了。
6.配置网络
由于咱们使用的是静态网址DHCP可以不用设置。
然后修改windows网卡。
注意是Vmare8,别选错了。
然后重启网卡ping一下百度。
7.安装epel-release
yum install -y epel-release
8.关闭防火墙
systemctl stop firewalld
systemctl disable firewalld.service
9.配置hosts
因为大数据需要多台虚拟机,咱们也不能一直用IP来访问。
vim /etc/hosts
多写几个
192.168.10.100 hadoop100
192.168.10.101 hadoop101
192.168.10.102 hadoop102
192.168.10.103 hadoop103
192.168.10.104 hadoop104
192.168.10.105 hadoop105
192.168.10.106 hadoop106
192.168.10.107 hadoop107
192.168.10.108 hadoop108
到这里模板虚拟机基本就修改完成了。
reboot重启即可。
三、复制虚拟机
注意首先在虚拟机关机的情况下进行复制。
选中虚拟机-右键-管理-克隆
自行修改名字和位置
我已经克隆过来,就不再做了
将克隆机的IP和主机名做相应修改就可以了。
我又克隆了hadoop102 103 104三台服务器。暂时是够了,不够再加。
四、Xshell链接
修改windows的hosts
在后边追加,然后用物理机ping一下虚拟机。这里以102为例。
可以看到用IP和域名都是可以的。确定可以联通后用Xshell链接。
然后连接。
由于咱们以后的实验都是用Xshell连接的,也为了节省硬件资源,咱们把可视化关掉。
systemctl set-default runlevel3.target
到此基本的环境准备就结束了。
总结
大数据和hadoop是离不开的,要慢慢学习。