- 关闭防火墙
- 工作中,共有云服务器,防火墙默认是关闭的
- Ubuntu 查看防火墙状态 $ sudo ufw status
- 显示 Status: inactive. 表示防火墙关闭
- $ sudo ufw enable //启用防火墙
- 关闭防火墙
- $ sudo ufw disable // 关闭防火墙
- $ systemctl stop firewalld.service
- 关闭开机启动防火墙
- $ chkconfig iptables off // 关闭开机自启
- $ systemctl disable firewalld.service
- 安装
ssh-server
更新apt-get $
apt-get install update- 按照ssh $ apt-get install openssh-server
- 修改sshd_config $ gedit /etc/ssh/sshd_config
- 找到 :
# Authentication: LoginGraceTime 2m PermitRootLogin without passwd StrictModes yes
- 改为:
# Authentication: LoginGraceTime 120 PermitRootLogin yes StrictModes yes
然后重启即可
- 找到 :
- 设置ssh localhost免密登录
- $ ssh localhost
- $ cd ~/.ssh/
- $ ssh-keygen -t rsa
- 运行后一路回车就行
- $ cat ./id_rsa.pub >> ./authorized_keys
- 验证是否可以免密码登录 $ ssh localhost
- 详情可参考 https://blog.csdn.net/qq_41822647/article/details/84451416
- 安装并配置JDK
- 在 /usr/lib/ 目录下创建 jvm目录 $ mkdir /usr/lib/jvm
- 下载 jdk 软件包: jdk-8u231-linux-x64.tar.gz
- 将软件包解压到 jvm目录下
sudo tar -zxvf jdk-8u231-linux-x64.tar.gz -C /usr/lib/jvm/
- 配置jdk,配置所有用户的环境变量
- $ sudo gedit /etc/profile
- 或者 $ sudo vim /etc/profile
- 添加如下
# set Java environment export JAVA_HOME=/[Java安装目录]/jdk1.8.0_231 export JRE_HOME=$JAVA_HOME/jre export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
- 保存并退出
- 执行一下 /etc/profile 文件 $ source /etc/profile
- 检查Java安装情况 $ java -version
- 安装并配置hadoop
- 创建hadoop目录 $ sudo mkdir /usr/local/hadoop
- 下载hadoop的tar软件包
- 解压tar软件包到hadoop目录
sudo tar -zxvf /home/[下载路径]/hadoop-2.9.2-src.tar.gz -C /usr/local/hadoop/
- 为当前用户配置权限 $ sudo chown -R <当前用户名> /usr/local/hadoop
- 配置hadoop
- 在 /etc/profile 中添加如下代码
- $ sudo gedit /etc/profile
-
# set hadoop enviroment export HADOOP_HOME=/usr/local/hadoop/hadoop-2.9.2 export PATH=.:$JAVA_HOME/bin:$JRE_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
- 保存并退出
- 执行一下 /etc/profile 文件 $ source /etc/profile
- 检测hadoop安装情况
- $ hadoop version
- 修改配置文件 /usr/loacl/hadoop/hadoop-2.9.2/etc/hadoop/core-site.xml ,在其中添加
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/usr/local/hadoop/tmp</value> </property> </configuration>
- 修改配置文件 /usr/local/hadoop/hadoop-2.9.2/etc/hadoop/hdfs-site.xml ,在其中添加
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/usr/local/hadoop/tmp/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/usr/local/hadoop/tmp/dfs/data</value> </property> </configuration>
- 修改配置文件 /usr/local/hadoop/hadoop-2.9.2/etc/hadoop/hadoop-env.sh ,在其中将JAVA_HAME更改为如下:
export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_231
- 格式化
namenode
$
hadoop namenode -format
- 启动hdfs
- $ start-all.sh
- 查看相应进程
- jps # 显示5个进程
- 浏览器端显示
- http://localhost:50070/
- 安装mysql
- 启动mysql
- 命令 $ mysql -u root -p<密码>
- 安装hive
- 在hadoop 安装目录下创建 hive 目录 /<安装路径>/hadoop/hive
- 下载 hive 软件包 apache-hive-1.2.2-bin.tar.gz
- 解压缩hive包 $ tar -zxvf /<下载路径>/apache-hive-1.2.2-bin.tar.gz/ -C /<安装路径>/hadoop/hive
- hive安装路径重命名 $ mv apache-hive-1.2.2-bin hive
- 配置hive
- 打开 hive解压缩文件路径下的 conf/hive-env.sh.template
- 添加hādoop 路径 export HADOOP_HOME=/<安装路径>/hadoop/hadoop-2.9.2
- 添加配置文件目录 export HIVE_CONF_DIR=/<安装路径>/hadoop/hive/hive/conf
- 启动hive
- 终端输入 bin/hive