虚拟机安装hadoop+hbase+spark+kafka

本文档详细介绍了如何在Linux虚拟机中安装和配置Hadoop、HBase、Spark和Kafka集群。首先,通过虚拟机安装Linux,配置网络,克隆虚拟机以创建集群节点。然后,安装JDK,配置Hadoop环境,格式化文件系统,并启动Hadoop集群。接着,部署Zookeeper和HBase,确保时间同步并启动HBase集群。接下来,搭建Spark开发环境,包括安装Spark、配置Spark-HA集群,并启动集群。最后,安装并启动Kafka服务,完成整个大数据处理环境的搭建。
摘要由CSDN通过智能技术生成

一、虚拟机的安装

1.1安装虚拟机-Linux

1.创建新的虚拟机,选择自定义–>下一步
在这里插入图片描述
2.默认选项,直接单击下一步
在这里插入图片描述
3.选择稍后安装操作系统–>下一步
在这里插入图片描述4.操作系统选择Linux,版本这里选了Red Hat Enterprise Linux 6 64位,单击下一步
在这里插入图片描述
5.更改虚拟机的名称为hadoop01,先在G盘创建hadoop_linux文件,再在其下新建一个文件夹hadoop01,更改安装路径,点击浏览(选择刚刚创建的文件夹)–>下一步
在这里插入图片描述
6.每个处理器的内核数量选择2,单击下一步在这里插入图片描述
7.设置虚拟机内存,根据自己计算机内存大小设置,这里选择1024,单击下一步
在这里插入图片描述
8.网络类型选择NAT,单击下一步
在这里插入图片描述
9.选择I/O控制器类型默认推荐,直接单击下一步
在这里插入图片描述
10.磁盘类型默认推荐,直接下一步
在这里插入图片描述
11.默认创建新虚拟磁盘,直接单击下一步
在这里插入图片描述
12.磁盘容量大小改为50GB(要大一些,不然集群处理时因磁盘太小进入安全模式),单击下一步
在这里插入图片描述
13.默认磁盘文件,直接单击下一步
在这里插入图片描述
14.单击完成,虚拟机创建成功
在这里插入图片描述
在这里插入图片描述

1.2初始化虚拟机

1.点击虚拟机编辑设置,选择CD/DVD,点击使用ISO映像文件,这里选择redhat-x86_64位映像,单击确定
在这里插入图片描述
2.开启虚拟机,选择第一个,直接回车
在这里插入图片描述
3.鼠标放进去点一下(ctrl+alt出现鼠标),按tab键,选择skip,回车
在这里插入图片描述
4.单击next
在这里插入图片描述
5.语言选中文简体,单击next
在这里插入图片描述
6.键盘选美国英语式,单击next
在这里插入图片描述
7.安装类型选择基础存储设备–>下一步
在这里插入图片描述
8.选泽 是,忽略所有数据
在这里插入图片描述
9.更改主机名为hadoop01,点击配置网络
在这里插入图片描述
10.选择System eth0,点击编辑
在这里插入图片描述
11.勾选自动连接,单击应用–>关闭–>next
在这里插入图片描述
12.地区选择亚洲/上海,单击下一步
在这里插入图片描述
13.设置密码,单击下一步在这里插入图片描述
14.安装类型选择使用所有空间,并写入磁盘
在这里插入图片描述
在这里插入图片描述
15.选择基本服务器,单击next在这里插入图片描述
16.安装完成,单击重新引导
在这里插入图片描述

17.输入账号,密码(密码打完看不到,直接按回车),创建三个目录
在这里插入图片描述

1.3虚拟机的克隆

1.虚拟机处于关闭状态,右键管理–>克隆–>下一步在这里插入图片描述
2.默认选择虚拟机中的当前状态,直接下一步
在这里插入图片描述
3.选择创建完整克隆,单击下一步
在这里插入图片描述
4.修改虚拟机名称为hadoop02,更改路径,单击完成,克隆成功
(克隆第三台虚拟机hadoop03重复以上虚拟机的克隆操作)
在这里插入图片描述
在这里插入图片描述

二、Linux系统网络配置

2.1修改虚拟机的网络配置

1.计算机–>右键管理–>服务,确定虚拟机的5个相关服务都在运行
在这里插入图片描述
2.点击编辑–>虚拟网络编辑器–>选择NAT模式–>更改设置(会跳到第一个模式,再点击一次NAT模式),将子网IP改成192.168.121.0
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
3.打开NAT设置,将网关改成192.168.121.2,单击确定
在这里插入图片描述
在这里插入图片描述
4.打开DHCP设置,设置起始IP和结束IP都在121网段,单击确定–>应用–>确定
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

2.2修改Windows网络配置

1.电脑右下角网络图标单击,打开“网络和Internet”配置,打开以太网,更改适配器选项
在这里插入图片描述
在这里插入图片描述
2.选择VMnet8–>属性–>IPv4协议属性修改,单击确定
在这里插入图片描述

2.3配置主机名

具体命令如下:vi /etc/sysconfig/network
在这里插入图片描述在这里插入图片描述

2.4配置每台虚拟机的IP映射

在三台服务器都使用命令配置:vi /etc/hosts
都增加
192.168.121.134 hadoop01
192.168.121.135 hadoop02
192.168.121.136 hadoop03
在这里插入图片描述

2.5网络参数配置

2.5.1.配置网卡设备的Mac地址
在hadoop02、hadoop03使用命令:vi /etc/udev/rules.d/70-persistent-net.rules
删去第一套参数,留第二套,修改NAME=“eth0”
在这里插入图片描述
2.5.2配置静态IP地址
在三台虚拟机使用命令:vi /etc/sysconfig/network-scripts/ifcfg-eth0,修改BOOTPROTO=static,Mac地址要一致,添加
IPADDR=192.168.121.134(IPADDR=192.168.121.135,IPADDR=192.168.121.136)
NETMASK=255.255.255.0
GATEWAY=192.168.121.2
DNS1=8.8.8.8
在这里插入图片描述
2.5.3配置效果验证
1.三台虚拟机都重启,输入命令:reboot
2.登录之后查看各自的ip并测试连接百度,连接成功
查看ip命令:ifconfig
在这里插入图片描述

三、SSH服务

3.1查看安装并开启SSH服务

1.查看是否安装了SSH命令:rpm -qa | grep ssh
查看是否启动了SSH服务:ps -e | grep sshd
安装SSH服务命令:yum install openssh-server(默认已安装和开启SSH服务,无需再安装开启)
在这里插入图片描述
2.使用Xshell工具远程连接服务器
打开文件-新建
在连接中填写主机号,端口号选择22
在这里插入图片描述
点击用户身份验证,填写登录用户名和密码
在这里插入图片描述
点击确定。
第一次连接会有安全警告,可以选择接收并保存,这样下次连接不用输入用户名密码
在这里插入图片描述
3.连接成功
在这里插入图片描述
4.再以同样的方式连接另外两台主机

在这里插入图片描述

3.2实现免密登录–公钥私钥

  1. 在三台虚拟机执行命令,产生密钥对:ssh-keygen -t rsa
    不设置密码,一直回车
    在这里插入图片描述
    查看目录发现已生成公钥和私钥
    在这里插入图片描述
  2. 再以同样方式使另外两台主机生成密钥对
  3. 拷贝公钥给同一台主机
    三台主机都执行命令将公钥保存在第一台主机:ssh-copy-id hadoop01
    在这里插入图片描述
  4. 查看第一台主机目录可以看见三台主机的公钥
    在这里插入图片描述
  5. 使用远程拷贝将数据发送给其余两台主机
    在第一台主机执行命令:
    scp /root/.ssh/authorized_keys hadoop02:/root/.ssh
    scp /root/.ssh/authorized_keys hadoop03:/root/.ssh
    在这里插入图片描述
    6.连接测试,测试成功
    在这里插入图片描述

四、Hadoop集群配置

4.1JDK安装

1.安装lrzsz软件
使用命令挂载光盘:mount /dev/cdrom /mnt
打开:cd /mnt/Packages
安装软件: rpm -ivh lrzsz-0.12.20-27.1.el6.x86_64.rpm
在这里插入图片描述
2.JDK安装
进入software目录:cd /export/software
使用命令:rz 回车,上传jdk

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值