Hive在执行插入数据等job任务出错

1、完全分布式中hive的执行模式

问题描述:

Hive在执行job任务时候卡死并报出信息:Number of reduce tasks is set to 0 since there’s no reduce operator(翻译:由于没有减少操作符,减少任务数被设置为0),如图:
此时无法继续执行
这样的情况下,Hive 已经无法继续执行,只能退出重启hive(但是依然不能执行)。这是因为虽然输入文件很小,但是需要加载的文件很大,根本吃不消。

解决问题:

Hive支持任务执行选择本地模式(local mode),对数据量比较小的操作,就可以在本地执行,这样要比提交任务到集群执行效率要快很多。

当一个job满足如下条件才能真正使用本地模式:
1.job的输入数据大小必须小于参数:hive.exec.mode.local.auto.inputbytes.max(默认128MB)
2.job的map数必须小于参数:hive.exec.mode.local.auto.tasks.max(默认4)
3.job的reduce数必须为0或者1

(注:可用参数hive.mapred.local.mem(默认0)控制child jvm使用的最大内存数。)

2、配置如下参数:

set hive.exec.mode.local.auto=true;(默认为false)

在这里插入图片描述
然后再去执行就OK了。
在这里插入图片描述

完成

  • 19
    点赞
  • 39
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 8
    评论
对于Hive分区表插入数据,有两种方式:动态分区插入和静态分区插入。 动态分区插入是指在插入数据时,根据数据中的某个列的值来动态创建分区,并将数据插入到相应的分区中。要使用动态分区插入,需要先设置以下两个参数: set hive.exec.dynamic.partition=true; set hive.exec.dynamic.partition.mode=strict; 然后使用以下语句进行插入操作: insert into table <table_name> partition(<partition_column>) select <columns> from <source_table>; 其中,<table_name>是目标表的名称,<partition_column>是用于分区的列名,<columns>是要插入的列,可以是源表的列或其他计算得到的值,<source_table>是源数据表的名称。 静态分区插入是指在插入数据时,直接指定分区的值,并将数据插入到指定的分区中。要使用静态分区插入,需要先设置以下两个参数: set hive.exec.dynamic.partition=true; set hive.exec.dynamic.partition.mode=nonstrict; 然后使用以下语句进行插入操作: insert into table <table_name> partition(<partition_columns>) select <columns> from <source_table>; 其中,<table_name>是目标表的名称,<partition_columns>是用于分区的列名及其对应的值,<columns>是要插入的列,可以是源表的列或其他计算得到的值,<source_table>是源数据表的名称。 这是Hive分区表插入数据的常用方法,可以根据实际需求选择使用动态分区插入还是静态分区插入
评论 8
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

雲小妖

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值