1. insert ORC表时,序列化出错。
报错日志:
Caused by: java.lang.ClassCastException: org.apache.hadoop.io.Text cannot be cast to org.apache.hadoop.hive.ql.io.orc.OrcSerde$OrcSerdeRow
at org.apache.hadoop.hive.ql.io.orc.OrcOutputFormat$OrcRecordWriter.write(OrcOutputFormat.java:98)
at org.apache.hadoop.hive.ql.exec.FileSinkOperator.process(FileSinkOperator.java:743)
at org.apache.hadoop.hive.ql.exec.Operator.forward(Operator.java:837)
at org.apache.hadoop.hive.ql.exec.SelectOperator.process(SelectOperator.java:97)
at org.apache.hadoop.hive.ql.exec.Operator.forward(Operator.java:837)
at org.apache.hadoop.hive.ql.exec.TableScanOperator.process(TableScanOperator.java:115)
at org.apache.hadoop.hive.ql.exec.MapOperator$MapOpCtx.forward(MapOperator.java:169)
at org.apache.hadoop.hive.ql.exec.MapOperator.process(MapOperator.java:561)
原因分析:
在创建 orc 存储格式的表时,使用如下写法会导致,未指定orc的序列化库(SerDe Library);
未指定orc的序列化库(SerDe Library),最终hive会默认使用org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe来进行序列化;
最终的结果就是 insert 的时候,序列化报错。
解决方法:
- 使用 desc formatted 表名 的方式,查看该表的详细信息。
- 确定是序列化库的问题后,更改表属性为orc序列化。
ALTER TABLE 表名 SET FILEFORMAT ORC;
- 另一种方法,在建表的时候直接使用
STRED AS ORC
,就会自动指定orc的序列化库。