看它的报错信息好像是节点没有启动,但是我的节点都启动起来了,使用jps也能查看到节点信息。
使用hadoop dfsadmin -report
命令查看磁盘使用情况,发现出现以下问题:
节点下存储空间都是空的,问题应该就是出现在这了。
查阅资料发现造成这个问题的原因可能是使用hadoop namenode -format
格式化时格式化了多次造成那么spaceID不一致,解决方案:
- 分别删除hadoop集群中的所有数据
-
hadoop2
-
hadoop3
-
hadoop4
- 使用
hadoop namenode -format
格式化hadoop集群 - mysql数据库中创建hive数据库
- 使用
schematool -dbType mysql -initSchema
格式化hive,最终出现如下图的各种hive元数据信息表
5. 启动hive
6. 创建hive数据库hive
7.创建表
8. 插入数据