hadoop无法打开50070_Win10系统下Hadoop和Hive开发环境搭建填坑指南

前提

笔者目前需要搭建数据平台,发现了Windows系统下,Hadoop和Hive等组件的安装和运行存在大量的坑,而本着有坑必填的目标,笔者还是花了几个晚上的下班时候在多个互联网参考资料的帮助下完成了Windows10系统下Hadoop和Hive开发环境的搭建。这篇文章记录了整个搭建过程中的具体步骤、遇到的问题和对应的解决方案。

环境准备

基于笔者的软件版本洁癖,所有选用的组件都会使用当前(2020-10-30)最高的版本。

57716b800a13736a475a04efc4e6084e.png

下面列举部分组件对应的下载地址:

  • Apache Hadoop 3.3.0:https://mirror.bit.edu.cn/apache/hadoop/common/hadoop-3.3.0/hadoop-3.3.0.tar.gz
  • Apache Hive 3.1.2:https://mirrors.bfsu.edu.cn/apache/hive/hive-3.1.2/apache-hive-3.1.2-bin.tar.gz
  • Apache Hive 1.2.2 src:https://mirrors.bfsu.edu.cn/apache/hive/hive-1.2.2/apache-hive-1.2.2-src.tar.gz
  • winutils:https://github.com/kontext-tech/winutils(如果下载速度慢,可以先把仓库导入gitee.com再下载,或者用笔者已经同步好的仓库https://gitee.com/throwableDoge/winutils)

下载完这一系列软件之后,MySQL正常安装为系统服务随系统自启。解压hadoop-3.3.0.tar.gz、apache-hive-3.1.2-bin.tar.gz、apache-hive-1.2.2-src.tar.gz和winutils到指定目录:

dacd9029da0752d8a1dc4657b2a67073.png

接着把源码包apache-hive-1.2.2-src.tar.gz解压后的bin目录下的文件拷贝到apache-hive-3.1.2-bin的bin目录中:

73ea4cb0345011f27ec3d4a3d1ca9b20.png

然后把winutils中的hadoop-3.3.0bin目录下的hadoop.dll和winutils.exe文件拷贝到Hadoop的解压目录的bin文件夹下:

7729e6d24dd05e2b7f39d5e46a7e6e70.png

最后再配置一下JAVA_HOME和HADOOP_HOME两个环境变量,并且在Path中添加%JAVA_HOME%bin;和%HADOOP_HOME%bin:

76f03ec5a741ef37b1b2c024c191a27c.png

❝ 笔者本地安装的JDK版本为1.8.0.212,理论上任意一个小版本的JDK8都可以。 ❞

接着用命令行测试一下,如果上述步骤没问题,控制台输出如下:

0941c1df1a4c7a0d4b14e7e330e0dcf9.png

配置和启动Hadoop

在HADOOP_HOME的etchadoop子目录下,找到并且修改下面的几个配置文件:

「core-site.xml」(这里的tmp目录一定要配置一个非虚拟目录,别用默认的tmp目录,否则后面会遇到权限分配失败的问题)

fs.defaultFShdfs://localhost:9000hadoop.tmp.dir/e:/LittleData/hadoop-3.3.0/data/tmp

「hdfs-site.xml」(这里要预先创建nameNode和dataNode的数据存放目录,注意一下每个目录要以/开头,笔者这里预先在HADOOP_HOME/data创建了nameNode和dataNode子目录)

dfs.replication1dfs.http.address0.0.0.0:50070dfs.namenode.name.dir/e:/LittleData/hadoop-3.3.0/data/nameNodedfs.datanode.data.dir/e:/LittleData/hadoop-3.3.0/data/dataNodedfs.permissions.enabledfalse

「mapred-site.xml」

mapreduce.framework.nameyarn

「yarn-site.xml」

yarn.nodemanager.aux-servicesmapreduce_shuffleyarn.nodemanager.aux-services.mapreduce.shuffle.classorg.apache.hadoop.mapred.ShuffleHandler

至此,最小化配置基本完成。接着需要格式化namenode并且启动Hadoop服务。切换至$HADOOP_HOME/bin目录下,使用CMD输入命令hdfs namenode -format(格式化namenode切记不要重复执行):

e7ea74abf7c8ca0a8f6dc0d15eb761f7.png

格式化namenode完毕后,切换至$HADOOP_HOME/sbin目录下,执行start-all.cmd脚本:

15c52287ea62fbe4113a5cf58c3fa345.png

这里命令行会提示start-all.cmd脚本已经过期,建议使用start-dfs.cmd和start-yarn.cmd替代。同理,如果执行stop-all.cmd也会有类似的提示,可以使用stop-dfs.cmd和stop-yarn.cmd替代。start-all.cmd成功执行后,会拉起四个JVM实例(见上图中的Shell窗口自动新建了四个Tab),此时可以通过jps查看当前的JVM实例:

λ jps19408 ResourceManager16324 NodeManager14792 Jps15004 NameNode2252 DataNode

可见已经启动了ResourceManager、NodeManager、NameNode和DataNode四个应用,至此Hadoop的单机版已经启动成功。通过stop-all.cmd命令退出这四个进程。可以通过http://localhost:8088/查看调度任务的状态:

db6a809e200d4493ca6aeaffcf421c78.png

通过http://localhost:50070/去查看HDFS的状态和文件:

e870d5e58774d200755f49b09b379182.png

重启Hadoop的办法:先执行stop-all.cmd脚本,再执行start-all.cmd脚本。

配置和启动Hive

Hive是构筑于HDFS上的,所以务必确保Hadoop已经启动。Hive在HDFS中默认的文件路径前缀是/user/hive/warehouse,因此可以先通过命令行在HDFS中创建此文件夹:

hdfs dfs -mkdir /user/hive/warehousehdfs dfs -chmod -R 777 /user/hive/warehouse

同时需要通过下面的命令创建并为tmp目录赋予权限:

hdfs dfs -mkdir /tmphdfs dfs -chmod -R 777 /tmp

在系统变量中添加HIVE_HOME,具体的值配置为E:LittleDataapache-hive-3.1.2-bin,同时在Path变量添加%HIVE_HOME%bin;,跟之前配置HADOOP_HOME差不多。下载和拷贝一个mysql-connector-java-8.0.x.jar到$HIVE_HOME/lib目录下:

b022d859eb3f780698cfdd86293243c9.png

创建Hive的配置文件,在$HIVE_HOME/conf目录下已经有对应的配置文件模板,需要拷贝和重命名,具体如下:

  • $HIVE_HOME/conf/hive-default.xml.template => $HIVE_HOME/conf/hive-site.xml
  • $HIVE_HOME/conf/hive-env.sh.template => $HIVE_HOME/conf/hive-env.sh
  • $HIVE_HOME/conf/hive-exec-log4j.properties.template => $HIVE_HOME/conf/hive-exec-log4j.properties
  • $HIVE_HOME/conf/hive-log4j.properties.template => $HIVE_HOME/conf/hive-log4j.properties
667c587bd5e76f6d666abc979c1f168e.png

修改hive-env.sh脚本,在尾部添加下面内容:

export HADOOP_HOME=E:LittleDatahadoop-3.3.0export HIVE_CONF_DIR=E:LittleDataapache-hive-3.1.2-binconfexport HIVE_AUX_JARS_PATH=E:LittleDataapache-hive-3.1.2-binlib

修改hive-site.xml文件,主要修改下面的属性项:

fa93061c805fc1acc878a24c2ac3da40.png

修改完毕之后,在本地的MySQL服务新建一个数据库hive,编码和字符集可以选用范围比较大的utf8mb4(虽然官方建议是latin1,但是字符集往大范围选没有影响):

9d84ed1ad6aacb52ed9376d90dc2dffd.png

上面的准备工作做完之后,可以进行Hive的元数据库初始化,在$HIVE_HOME/bin目录下执行下面的脚本:

hive --service schematool -dbType mysql -initSchema

这里有个小坑,hive-site.xml文件的第3215行有个神奇的无法识别的符号:

07b393c1daa95f906e41560406e5a08d.png

此无法识别符号会导致Hive的命令执行异常,需要去掉。当控制台输出Initialization script completed schemaTool completed的时候,说明元数据库已经初始化完毕:

b21c727c980ed00d08f88a48f2a78cc4.png

在$HIVE_HOME/bin目录下,通过hive.cmd可以连接Hive(关闭控制台即可退出):

> hive.cmd

尝试创建一个表t_test:

hive>  create table t_test(id INT,name string);hive>  show tables;

查看http://localhost:50070/确认t_test表已经创建成功。

20b1b8f727688d10da9e0307e43efd94.png

尝试执行一个写入语句和查询语句:

hive>  insert into t_test(id,name) values(1,'throwx');hive>  select * from t_test;
5db0d75144cdc3488d712849f1a1ae47.png

写用了30多秒,读用了0.165秒。

使用JDBC连接Hive

HiveServer2是Hive服务端接口模块,必须启动此模块,远程客户端才能对Hive进行数据写入和查询。目前,此模块还是基于Thrift RPC实现,它是HiveServer的改进版,支持多客户端接入和身份验证等功能。配置文件hive-site.xml中可以修改下面几个关于HiveServer2的常用属性:

aefa03d1eb63f2a48074cf7f5331f55f.png

在$HIVE_HOME/bin目录下执行下面的命令可以启动HiveServer2:

hive.cmd --service hiveserver2

客户端需要引入hadoop-common和hive-jdbc依赖,依赖的版本尽量和对接的Hadoop和Hive版本对应。

org.apache.hadoop    hadoop-common    3.3.0org.apache.hive    hive-jdbc    3.1.2org.springframework.boot    spring-boot-starter-jdbc    2.3.5.RELEASE

hadoop-common依赖链比较长,会连带下载大量其他相关依赖,所以可以找个空闲时间在某个Maven项目先挂起该依赖下载的任务(笔者挂起此依赖下载任务洗完澡仍然没下完,还会出现org.glassfish:javax.el的快照包无法下载的问题,不过不影响正常使用)。最后添加一个单元测试类HiveJdbcTest:

@Slf4jpublic class HiveJdbcTest {    private static JdbcTemplate TEMPLATE;    private static HikariDataSource DS;    @BeforeClass    public static void beforeClass() throws Exception {        HikariConfig config = new HikariConfig();        config.setDriverClassName("org.apache.hive.jdbc.HiveDriver");        // 这里笔者修改过hive-site.xml的对应配置,因为端口不是默认的10000//        config.setJdbcUrl("jdbc:hive2://127.0.0.1:10091");        config.setJdbcUrl("jdbc:hive2://127.0.0.1:10091/db_test");        DS = new HikariDataSource(config);        TEMPLATE = new JdbcTemplate(DS);    }    @AfterClass    public static void afterClass() throws Exception {        DS.close();    }    @Test    public void testCreateDb() throws Exception {        TEMPLATE.execute("CREATE DATABASE db_test");    }    @Test    public void testCreateTable() throws Exception {        TEMPLATE.execute("CREATE TABLE IF NOT EXISTS t_student(id INT,name string,major string)");        log.info("创建t_student表成功");    }    @Test    public void testInsert() throws Exception {        int update = TEMPLATE.update("INSERT INTO TABLE t_student(id,name,major) VALUES(?,?,?)", p -> {            p.setInt(1, 10087);            p.setString(2, "throwable");            p.setString(3, "math");        });        log.info("写入t_student成功,更新记录数:{}", update);  // 这里比较神奇,数据写入了,返回的update数量为0    }    @Test    public void testSelect() throws Exception {        List result = TEMPLATE.query("SELECT * FROM t_student", rs -> {            List list = new ArrayList<>();            while (rs.next()) {                Student student = new Student();                student.setId(rs.getLong("id"));                student.setName(rs.getString("name"));                student.setMajor(rs.getString("major"));                list.add(student);            }            return list;        });        // 打印日志:查询t_student成功,结果:[HiveJdbcTest.Student(id=10087, name=throwable, major=math)]        log.info("查询t_student成功,结果:{}", result);    }    @Data    private static class Student {        private Long id;        private String name;        private String major;    }}

可能遇到的问题

下面小结一下可能遇到的问题。

Java虚拟机启动失败

目前定位到是Hadoop无法使用JDK[9+的任意版本JDK,建议切换为任意JDK8的小版本。

出现找不到Hadoop执行文件异常

确保已经把winutils中的hadoop-3.3.0bin目录下的hadoop.dll和winutils.exe文件拷贝到Hadoop的解压目录的bin文件夹中。

start-all.cmd脚本执行时有可能出现找不到批处理脚本的异常。此问题在公司的开发机出现过,在家用的开发机没有重现,具体解决方案是在start-all.cmd脚本的首行加入cd $HADOOP_HOME,如cd E:LittleDatahadoop-3.3.0。

无法访问localhost:50070

一般是因为hdfs-site.xml配置遗漏了dfs.http.address配置项,添加:

dfs.http.address0.0.0.0:50070

然后调用stop-all.cmd,再调用start-all.cmd重启Hadoop即可。

Hive连接MySQL异常

注意MySQL的驱动包是否已经正确拷贝到$HIVE_HOME/lib下,并且检查javax.jdo.option.ConnectionURL等四个属性是否配置正确。如果都正确,注意是否MySQL的版本存在问题,或者服务的版本与驱动版本不匹配。

Hive找不到批处理文件

一般描述是'xxx.cmd' is not recognized as an internal or external command...,一般是Hive的命令执行时的异常,需要把Hive 1.x的源码包的bin目录下的所有.cmd脚本拷贝到$HIVE_HOME/bin对应的目录下。

文件夹权限问题

常见如CreateSymbolicLink异常,会导致Hive无法使用INSERT或者LOAD命令写入数据。出现这类问题可以通过下面方式解决:

  • Win + R然后运行gpedit.msc - 计算机设置 - Windows设置 — 安全设置 - 本地策略 - 用户权限分配 - 创建符号链接 - 添加当前用户。
c6e4706d544e274dcdc2be001cbd9144.png

或者「直接使用管理员账号或者管理员权限启动CMD」,然后执行对应的脚本启动Hadoop或者Hive。

SessionNotRunning异常

启动HiveServer2中或者外部客户端连接HiveServer2时候有可能出现此异常,具体是java.lang.ClassNotFoundException: org.apache.tez.dag.api.TezConfiguration的异常。解决方案是:配置文件hive-site.xml中的hive.execution.engine属性值由tez修改为mr,然后重启HiveServer2即可。因为没有集成tez,重启后依然会报错,但是60000ms后会自动重试启动(一般重试后会启动成功):

57dcb555a39f7f36c92c113a5b887ae6.png

这算是一个遗留问题,但是不影响客户端正常连接,只是启动时间会多了60秒。

HiveServer2端口冲突

修改配置文件hive-site.xml中的hive.server2.thrift.port属性值为未被占用的端口,重启HiveServer2即可。

数据节点安全模式异常

一般是出现SafeModeException异常,提示Safe mode is ON。通过命令hdfs dfsadmin -safemode leave解除安全模式即可。

AuthorizationException

常见的是Hive通过JDBC客户端连接HiveServer2服务时候会出现这个异常,具体是信息是:User: xxx is not allowed to impersonate anonymous。这种情况只需要修改Hadoop的配置文件core-site.xml,添加:

hadoop.proxyuser.xxx.hosts*hadoop.proxyuser.xxx.groups*

❝ 这里的xxx是指报错时候具体的系统用户名,例如笔者开发机的系统用户名为doge ❞

然后重启Hadoop服务即可。

MapRedTask的权限问题

常见的是Hive通过JDBC客户端连接HiveServer2服务执行INSERT或者LOAD操作时候抛出的异常,一般描述是Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.mr.MapRedTask. Permission denied: user=anonymous, access=EXECUTE, inode="/tmp/hadoop-yarn":xxxx:supergroup:drwx------。通过命令hdfs dfs -chmod -R 777 /tmp赋予匿名用户/tmp目录的读写权限即可。

小结

没什么事最好还是直接在Linux或者Unix系统中搭建Hadoop和Hive的开发环境比较合理,Windows系统的文件路径和权限问题会导致很多意想不到的问题。本文参考了大量互联网资料和Hadoop和Hive的入门书籍,这里就不一一贴出,站在巨人的肩膀上。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值