大数据学习笔记(二)

环境搭建

java环境

1.在/opt 下创建两个文件夹,一个module,一个software

software放安装包,module放安装包解压后的文件

将准备好的jdk和hadoop2.7.2tar包放入software文件夹中
hadoop2.7.2下载地址:http://archive.apache.org/dist/hadoop/common/hadoop-2.7.2/

在这里插入图片描述

//解压至/opt/module文件夹下
tar -zxvf  jdk-tar包 -C /opt/module

在这里插入图片描述
修改 /etc/profile文件
加入以下配置,注意自己的路径,相应作出调整

##JAVA_HOME
export JAVA_HOME=/opt/module/jdk1.8.0_51
export PATH=$PATH:$JAVA_HOME/bin

刷新环境变量

source /etc/profile

在这里插入图片描述
至此,jdk安装完毕

hadoop环境搭建

与安装jdk一样
解压至module文件夹

tar -zxvf hadoop-tar包 -C /opt/module

添加环境变量

##HADOOP_HOME
export HADOOP_HOME=/opt/module/hadoop-2.7.2
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin

刷新环境变量后:
在这里插入图片描述
hadoop安装完成

克隆多台hadoop服务器

将准备好的hadoop100主机基本环境配置好后,克隆完整镜像,方便以后搭建hadoop集群
举例-克隆hadoop101
在这里插入图片描述
右击-管理-克隆,创建完整克隆
修改ip

vi /etc/sysconfig/network-scripts/ifcfg-ens33

在这里插入图片描述
修改主机名

vi /etc/sysconfig/

在这里插入图片描述
配置host

vi /etc/hosts

192.168.18.100 hadoop100
192.168.18.101 hadoop101
192.168.18.102 hadoop102
192.168.18.103 hadoop103
192.168.18.104 hadoop104
192.168.18.105 hadoop105
192.168.18.106 hadoop106
192.168.18.107 hadoop107
192.168.18.108 hadoop108

在这里插入图片描述
验证jdk和hadoop

在这里插入图片描述
至此,两台虚拟机hadoop基础环境搭建完成,后期若需要多台虚拟机搭建集群,同样操作即可

注意事项:
若配置出现如下情况:
在这里插入图片描述

1 停止并禁用虚拟机 NetworkManager 服务
systemctl stop NetworkManager
systemctl disable NetworkManager

2.重新生成MAC网卡地址
在这里插入图片描述

3 重启虚拟机网络服务
systemctl restart network
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
目录 第一部分 Spark学习 ....................................................................................................................... 6 第1章 Spark介绍 ................................................................................................................... 7 1.1 Spark简介与发展 ...................................................................................................... 7 1.2 Spark特点 .................................................................................................................. 7 1.3 Spark与Hadoop集成 ................................................................................................ 7 1.4 Spark组件 .................................................................................................................. 8 第2章 Spark弹性分布数据集 ............................................................................................... 9 2.1 弹性分布式数据集 .................................................................................................... 9 2.2 MapReduce数据分享效率低..................................................................................... 9 2.3 MapReduce进行迭代操作 ........................................................................................ 9 2.4 MapReduce进行交互操作 ...................................................................................... 10 2.5 Spark RDD数据分享 ............................................................................................... 10 2.6 Spark RDD 迭代操作 .............................................................................................. 10 2.7 Spark RDD交互操作 ............................................................................................... 10 第3章 Spark安装 ................................................................................................................. 11 第4章 Spark CORE编程 ....................................................................................................... 13 4.1 Spark Shell ........................................................

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

木子丶Li

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值