HIVE学习系列——windows Hadoop安装(上)


整体流程概览

系统:windows10
Jre8 => hadoop安装与配置 => HDFS格式化 => 开启服务
前排提示,HIVE整体配置篇幅较长,可收藏后慢慢操作。
大佬们有相关编写建议也可以多多指导!

  • 下篇地址
  • 周末上传安装过程中使用的各种压缩包、安装包

jre环境

jre安装

Jre8官网

  1. 打开官网,选择windows64位的安装包即可

在这里插入图片描述
Orcal官网的下载需要账号登陆,邮箱注册即可,全程无收费点。

  1. 按照提示直接安装

在这里插入图片描述
这里位置可以自定义一下,安装位置要牢记
在这里插入图片描述

  1. 安装过程中可能会提示程序占用,并给出PIDCtrl+Alt+Delete调出任务管理器,先后选择性能资源监视器

在这里插入图片描述

  1. 在资源监视器中搜索PID,找到相应进程后右击,选择结束进程即可(点击PID排序后更好找一些,CPU中找不到时切换至内存、磁盘即可)

在这里插入图片描述

  1. 处理掉占用的进程后会再选一次安装位置,这里个人原因,选择安装在了指定目录下

在这里插入图片描述
文件夹jre为步骤2中选择的位置,文件夹java为第二次选择的位置


jre环境变量配置

  1. 右击此电脑选择属性,在右边找到高级系统设置

在这里插入图片描述

  1. 依次点击环境变量新建,输入变量名JAVA_HOME,点击浏览目录,选择jre安装的位置

在这里插入图片描述

  1. 点击环境变量,在系统变量中找到Path并双击,点击新建,输入%JAVA_HOME%\bin

在这里插入图片描述

  1. 测试jre,在cmd中输入java -versionjavac进行测试

在这里插入图片描述


Hadoop安装与配置

官网下载步骤

Hadoop官网

  1. 点击Download,进入下载界面

在这里插入图片描述

  1. 选择Binary download下的最新版本即可
    Source Download表示源代码版,需要编译后使用
    Binary Download表示可执行版,直接解压使用

在这里插入图片描述

  1. 点击该条链接进行压缩包下载,结果如图所示:

在这里插入图片描述

  1. 下载完成后解压到指定目录即可,解压位置要牢记
    这里需要以管理员方式运行
    windows中管理员方式解压文件

清华镜像下载步骤

Hadoop清华镜像

  1. 选择需要的版本

在这里插入图片描述

  1. 选择tar.gz文件

在这里插入图片描述

  1. 下载完成后解压即可,同样需要以管理员身份运行
    windows中管理员方式解压文件

Hadooponwindows下载

Hadooponwindows
提取码:q1p2
原始Hadooponwindows版本可在github中搜索Hadooponwindows得到

  1. 下载后与hadoop压缩包放置于同一目录下

在这里插入图片描述

  1. 解压hadooponwindows
  2. 将hadooponwindows中的bin与etc复制到hadoop目录下(建议提前备份hadoop中的bin与etc文件夹)

在这里插入图片描述


配置系统变量

  1. 右击此电脑选择属性,在右边找到高级系统设置

在这里插入图片描述

  1. 依次点击环境变量``新建,输入变量名HADOOP_HOME点击浏览目录,选择hadoop安装的位置

在这里插入图片描述

  1. 点击环境变量,在系统变量中找到Path并双击,点击新建,输入%HADOOP_HOME%\bin

在这里插入图片描述

  1. 测试hadoop,在cmd中输入hadoop进行测试,发现报错

在这里插入图片描述
文本形式打开对应位置的cmd文件,发现JAVA_HOME配置错误
在这里插入图片描述
修正后重新测试
在这里插入图片描述
问题解决


hadoop初始文件配置

为方便查看,这里先贴上自己hadoop的路径,也就是之前的解压路径
D:\hive\hadoop\hadoop-3.2.3\
该目录下的内容:

在这里插入图片描述

hadoop.dll文件复制

文件路径:D:\hive\hadoop\hadoop-3.2.3\bin\hadoop.dll

在这里插入图片描述

目标路径1:D:\hive\hadoop\hadoop-3.2.3\sbin

在这里插入图片描述

目标路径2:C:\Windows\System32

在这里插入图片描述

配置文件修改

  • 来到hadoop路径D:\hive\hadoop\hadoop-3.2.3\下,创建若干文件夹以及文件:
    文件夹1:D:\hive\hadoop\hadoop-3.2.3\data
    文件夹2:D:\hive\hadoop\hadoop-3.2.3\data\dfs
    文件夹3:D:\hive\hadoop\hadoop-3.2.3\data\dfs\datanode
    文件夹4:D:\hive\hadoop\hadoop-3.2.3\data\dfs\namenode
    在这里插入图片描述
  • 文件修改
    文件1:D:\hive\hadoop\hadoop-3.2.3\etc\hadoop\hdfs-site.xml

在这里插入图片描述

  1. 增加http-address字段
  2. 修正后两个字段中的路径信息为上一步骤中所创建的信息
<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.http-address</name>
        <value>localhost:50070</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>/D:/hive/hadoop/hadoop-3.2.3/data/dfs/namenode</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>/D:/hive/hadoop/hadoop-3.2.3/data/dfs/datanode</value>
    </property>
</configuration>

文件2:D:\hive\hadoop\hadoop-3.2.3\etc\hadoop\mapred-site.xml

在这里插入图片描述
主要是tracker字段的添加

<configuration>
    <property>
       <name>mapreduce.framework.name</name>
       <value>yarn</value>
    </property>
    <property>
       <name>mapred.job.tracker</name>
       <value>hdfs://localhost:9001</value>
    </property>
</configuration>

如果按照本文所述步骤安装至此,只用修改这2个文件即可,修改完不放心的朋友可以和大佬的这篇文章对应一下,感谢大佬指路

格式化HDFS

在cmd中输入hdfs namenode -format

在这里插入图片描述

相关服务开启

以管理员身份运行cmd,切换至D:\hive\hadoop\hadoop-3.2.3\sbin目录下,输入start-all.cmd,随后输入jps查看服务启动情况

  • 目录位置:
    在这里插入图片描述
  • 运行结果:

执行start-all.cmd之后会出现4个新的执行框,其中正确执行的会在窗口标题处增加“- 服务名称”如图中绿色箭头所示,反之如红色箭头所示
在这里插入图片描述
此时查看jps运行结果也不难看出,只有3个服务启动成功(最初只有2个服务可以成功启动,此图为部分修正后的结果)

服务开启过程中遇到的问题

同样先贴上自己hadoop的路径,也就是之前的解压路径
D:\hive\hadoop\hadoop-3.2.3\

  • 问题1:
java.lang.NoClassDefFoundError: org/apache/hadoop/yarn/server/timelineservice/collector/TimelineColl

解决方法:
未找到类定义,感谢大佬指路
D:\hive\hadoop\hadoop-3.2.3\share\hadoop\yarn\timelineservice路径中的hadoop-yarn-server-timelineservice-3.2.3复制到D:\hive\hadoop\hadoop-3.2.3\share\hadoop\yarn即可

在这里插入图片描述

  • 问题2:
org.apache.hadoop.io.nativeio.NativeIO$POSIX...

解决方法:
hadoop.dll版本不匹配,感谢大佬指路
安装时采用了hadoop==3.2.3,但是hadooponwindows中的hadoop版本为2.0,在大佬提示的git中下载hadoop.dll的3.0版本,之后复制到D:\hive\hadoop\hadoop-3.2.3\bin下即可
Github链接

  • 问题3:
Exiting with status 1: java.io.FileNotFoundException: D:\hive\hadoop\hadoop-3.2.3\data\dfs\namenode\current\VERSION (拒绝访问。)

解决方法:
未以管理员方式运行。

开启服务后的验证

  • 切换至D:\hive\hadoop\hadoop-3.2.3\sbin目录下,输入start-all.cmd,随后输入jps查看服务启动情况

在这里插入图片描述
可见所有服务均已正常启动

  • 在Chrome地址栏输入http://localhost:50070查看Hadoop状态

在这里插入图片描述

  • Chrome输入http://localhost:8088查看集群状态

在这里插入图片描述


HIVE学习系列——windows Hadoop安装(下)

  • 5
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
安装Hive需要以下步骤: 1. 下载Hive安装包并解压缩到指定目录,例如:/software/hive/ 2. 配置Hive环境变量,需要在~/.bashrc文件中添加以下内容: ``` export HIVE_HOME=/software/hive export PATH=$PATH:$HIVE_HOME/bin ``` 3. 配置Hivehive-site.xml文件,需要在$HIVE_HOME/conf目录下创建hive-site.xml文件,并添加以下内容: ``` <configuration> <property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:mysql://localhost/metastore?createDatabaseIfNotExist=true</value> <description>JDBC connect string for a JDBC metastore</description> </property> <property> <name>javax.jdo.option.ConnectionDriverName</name> <value>com.mysql.jdbc.Driver</value> <description>Driver class name for a JDBC metastore</description> </property> <property> <name>javax.jdo.option.ConnectionUserName</name> <value>hiveuser</value> <description>username to use against metastore database</description> </property> <property> <name>javax.jdo.option.ConnectionPassword</name> <value>password</value> <description>password to use against metastore database</description> </property> </configuration> ``` 其中,ConnectionURL需要根据实际情况修改,ConnectionUserName和ConnectionPassword需要根据实际情况设置。 4. 启动Hive服务,需要执行以下命令: ``` $HIVE_HOME/bin/hive --service metastore & $HIVE_HOME/bin/hive --service hiveserver2 & ``` 5. 验证Hive是否安装成功,可以执行以下命令: ``` $HIVE_HOME/bin/hive ``` 如果成功启动Hive命令行界面,则说明Hive安装成功。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值