Caused by: java.io.IOException: incorrect header check

hive Caused by: java.io.IOException: incorrect header check
1.hive 报错日志
java.io.IOException: java.io.IOException: incorrect header check
at org.apache.hadoop.hive.ql.exec.FetchOperator.getNextRow(FetchOperator.java:507)
at org.apache.hadoop.hive.ql.exec.FetchOperator.pushRow(FetchOperator.java:414)
at org.apache.hadoop.hive.ql.exec.FetchTask.fetch(FetchTask.java:140)
at org.apache.hadoop.hive.ql.Driver.getResults(Driver.java:1670)
at org.apache.hadoop.hive.cli.CliDriver.processLocalCmd(CliDriver.java:233)
at org.apache.hadoop.hive.cli.CliDriver.processCmd(CliDriver.java:165)
at org.apache.hadoop.hive.cli.CliDriver.processLine(CliDriver.java:376)
at org.apache.hadoop.hive.cli.CliDriver.executeDriver(CliDriver.java:736)
at org.apache.hadoop.hive.cli.CliDriver.run(CliDriver.java:681)
at org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:621)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:498)
at org.apache.hadoop.util.RunJar.run(RunJar.java:221)
at org.apache.hadoop.util.RunJar.main(RunJar.java:136)
Caused by: java.io.IOException: incorrect header check
at org.apache.hadoop.io.compress.zlib.ZlibDecompressor.inflateBytesDirect(Native Method)
at org.apache.hadoop.io.compress.zlib.ZlibDecompressor.decompress(ZlibDecompressor.java:228)
at org.apache.hadoop.io.compress.DecompressorStream.decompress(DecompressorStream.java:91)
at org.apache.hadoop.io.compress.DecompressorStream.read(DecompressorStream.java:85)
at java.io.InputStream.read(InputStream.java:101)
at org.apache.hadoop.util.LineReader.fillBuffer(LineReader.java:180)
at org.apache.hadoop.util.LineReader.readDefaultLine(LineReader.java:216)
at org.apache.hadoop.util.LineReader.readLine(LineReader.java:174)
at org.apache.hadoop.mapred.LineRecordReader.next(LineRecordReader.java:248)
at org.apache.hadoop.mapred.LineRecordReader.next(LineRecordReader.java:48)
at org.apache.hadoop.hive.ql.exec.FetchOperator.getNextRow(FetchOperator.java:474)
… 15 more
2.操作步骤
1)用flume生成数据
2)创建表
create table tb1 (

)
row format serde ‘org.openx.data.jsonserde.JsonSerDe’
location ‘/xxx/flume.log’
;
3)select * from tb1;
4)报错
5)分析为数据问题,数据来源于flume
flume 结构模型如下
在这里插入图片描述
6) ssh “$FLUME_HOME/bin/flume-ng agent -c $FLUME_HOME/conf -f $JOB_HOME/flume-xxx.conf -n agent-xxx -Dflume.root.logger=info >/dev/null 2>&1 &”

7)没有加加环境变量会导致flume 数据生成有问题,无法正确解析

8)解决方式 加环境变量
ssh $i “source /etc/profile; $FLUME_HOME/bin/flume-ng agent -c $FLUME_HOME/conf -f $JOB_HOME/flume-xxx.conf -n agent-xxx -Dflume.root.logger=info >/dev/null 2>&1 &”

ftpclient 是一个 Java 的 FTP 客户端类,用于在 Java 程序中连接和操作 FTP 服务器。然而,在执行某些操作时,可能会遇到 "ftpclient caused by: java.io.ioexception: connection is not open" 的异常。 这个异常的原因是因为在执行 FTP 操作之前,没有正确地打开 FTP 连接。在使用 FTPClient 进行 FTP 操作之前,我们需要先使用 connect() 方法连接到 FTP 服务器,并使用正确的主机名、用户名和密码。 连接到 FTP 服务器后,我们可以使用 login() 方法进行登录验证。如果没有成功登录,那么可能是用户名或密码错误,需要确保提供的用户名和密码是正确的。 另外,还需要注意在执行完所有的 FTP 操作后,使用 disconnect() 方法关闭连接,以释放资源和保持良好的编程习惯。 在处理这个异常时,可按照以下步骤进行排查: 1. 确保使用 connect() 方法正确连接到 FTP 服务器。 2. 确保使用 login() 方法成功登录到 FTP 服务器。 3. 检查是否在执行 FTP 操作之前使用了已关闭的连接。 4. 确保在所有操作完成后,使用 disconnect() 方法关闭连接。 总结:连接未打开的 "ftpclient caused by: java.io.ioexception: connection is not open" 异常通常是由于未正确连接到 FTP 服务器或未正确打开连接导致的。按照正确的连接和操作顺序,确保正确打开连接并在使用完之后关闭连接,可以避免这个异常的出现。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值