Retry attempted 10 times without completing, bailing out解决

今天在做 通过bulkload的方式批量加载数据到HBase中去的时候遇到了这个异常

然后去网上找到了这个方案,我的Hbase是2.0.0,所以试了也没用

具体代码如下:

BulkLoadMain.class

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.conf.Configured;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.TableName;
import org.apache.hadoop.hbase.client.Connection;
import org.apache.hadoop.hbase.client.ConnectionFactory;
import org.apache.hadoop.hbase.client.Put;
import org.apache.hadoop.hbase.client.Table;
import org.apache.hadoop.hbase.io.ImmutableBytesWritable;
import org.apache.hadoop.hbase.mapreduce.HFileOutputFormat2;
import org.apache.hadoop.hdfs.DFSUtil;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.TextInputFormat;
import org.apache.hadoop.util.Tool;
import org.apache.hadoop.util.ToolRunner;

public class BulkLoadMain extends Configured implements Tool {
    @Override
    public int run(String[] args) throws Exception {
        Configuration conf = super.getConf();

        //获取job对象
        Job job = Job.getInstance(conf, "bulkLoad");

        Connection connection = ConnectionFactory.createConnection(conf);

        Table table = connection.getTable(TableName.valueOf("myuser2"));

        //读取文件
        job.setInputFormatClass(TextInputFormat.class);
        TextInputFormat.addInputPath(job,new Path("hdfs://node01:8020/hbase/input"));

        job.setMapperClass(HDFSReadMapper.class);
        job.setMapOutputKeyClass(ImmutableBytesWritable.class);
        job.setMapOutputValueClass(Put.class);

        //将数据输出成为HFile格式

        //Job job, Table table, RegionLocator regionLocator
        //配置增量的添加数据
        HFileOutputFormat2.configureIncrementalLoad(job,table,connection.getRegionLocator(TableName.valueOf("myuser2")));
        //设置输出classs类,决定了我们输出数据格式
        job.setOutputFormatClass(HFileOutputFormat2.class);
        //设置输出路径
        HFileOutputFormat2.setOutputPath(job,new Path("hdfs://node01:8020/hbase/hfile_out"));

        boolean b = job.waitForCompletion(true);

        return b?0:1;
    }

    public static void main(String[] args) throws Exception {
        Configuration configuration = HBaseConfiguration.create();
        configuration.set("hbase.zookeeper.quorum","node01:2181,node02:2181,node03:2181");
        int run = ToolRunner.run(configuration, new BulkLoadMain(), args);
        System.exit(run);
    }
}

BulkLoadMapper.class

import org.apache.hadoop.hbase.client.Put;
import org.apache.hadoop.hbase.io.ImmutableBytesWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;

import java.io.IOException;

/**
 * LongWritable  k1类型
 * Text   V1类型
 * ImmutableBytesWritable   rowkey
 * Put  插入的对象
 */
public class BulkLoadMapper extends Mapper<LongWritable, Text, ImmutableBytesWritable, Put> {
    @Override
    protected void map(LongWritable key, Text value, Mapper.Context context) throws IOException, InterruptedException {
        String[] split = value.toString().split("\t");
        Put put = new Put(split[0].getBytes());
        put.addColumn("f1".getBytes(),"name".getBytes(),split[1].getBytes());
        put.addColumn("f1".getBytes(),"age".getBytes(),split[2].getBytes());
        context.write(new ImmutableBytesWritable(split[0].getBytes()),put);
    }
}

PutMain.class


import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.TableName;
import org.apache.hadoop.hbase.client.Admin;
import org.apache.hadoop.hbase.client.Connection;
import org.apache.hadoop.hbase.client.ConnectionFactory;
import org.apache.hadoop.hbase.client.Table;
import org.apache.hadoop.hbase.tool.LoadIncrementalHFiles;

import java.io.IOException;

public class PutMain {
    public static void main(String[] args) throws IOException {
        Configuration conf = HBaseConfiguration.create();
        Connection connection = ConnectionFactory.createConnection(conf);

        Admin admin = connection.getAdmin();
        TableName tableName = TableName.valueOf("myuser2");
        Table table = connection.getTable(tableName);
        LoadIncrementalHFiles load = new LoadIncrementalHFiles(conf);
        load.doBulkLoad(new Path("hdfs://node01:8020/hbase/hfile_out"),admin,table,connection.getRegionLocator(tableName));
    }
}

 

解决方法:

最后我把这个打包后,去集群上用如下命令跑了一下:

yarn jar bulkload-1.0-SNAPSHOT.jar PutMain /hbase/hfile_out myuser2

最后完美解决了!

Hbase的数据都有了

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
### 回答1: 这个错误信息通常表示在试图建立网络连接时超时,第1次重试失败。 解决这个问题的方法有很多,具体取决于导致超时的原因,但以下是一些常见的解决方案: 1. 检查网络连接:确保您的设备已经连接到互联网,并且没有任何网络问题。 ### 回答2: 解决"get connection timeout retry:1"问题的方法有以下几种: 1. 检查网络连接:首先要确保你的设备已经成功连接到网络,并且网络连接稳定。可以尝试重新连接Wi-Fi或更换网络连接方式,以确保网络正常工作。 2. 检查服务器状态:如果问题发生在与特定服务或网站的连接上,可以尝试访问其他网站或服务,确认是否只是发生在特定的服务器上。如果是特定服务器的问题,可能是服务器故障或维护,只能等待服务器正常运行或联系相关维护人员进行处理。 3. 检查防火墙和路由器设置:有时候,防火墙和路由器的设置会导致连接超时。可以尝试暂时关闭防火墙或者在防火墙和路由器上配置相应的端口和访问规则,确保连接不被阻塞。 4. 修改连接超时设置:有时候默认的连接超时时间较短,可以尝试增加连接超时时间,通常可以在应用程序或设备设置中进行调整。 5. 检查应用程序或设备的更新:如果问题发生在特定应用程序上,可以检查该应用程序是否有更新版本可用,如果有,可以尝试更新应用程序以修复可能存在的连接问题。 总之,解决"get connection timeout retry:1"的问题需要综合考虑网络连接、服务器状态、防火墙和路由器设置等因素,根据具体情况采取相应的调整和处理措施。 ### 回答3: "get connection timeout retry:1" 这个错误通常是在尝试建立网络连接时遇到的问题。这可能是由于网络连接不稳定或服务器响应缓慢引起的。以下是一些可能的解决方法: 1. 检查网络连接:确认你的网络连接是否正常并能够正常访问其他网站或服务。如果你使用的是无线连接,尝试重新连接或更换网络。 2. 重试:网络连接时可能会因为临时问题而超时。在遇到连接超时错误后,可以尝试再次执行相同的操作,看是否能够建立连接。 3. 检查服务器状态:该错误可能是由于服务器过载或其他问题导致的。你可以尝试访问其他网站或服务来确认该问题是否只出现在特定的服务器上。 4. 检查防火墙设置:如果你使用的是防火墙软件,可能会出现连接问题。确保你的防火墙设置允许该程序或网站的访问。 5. 与技术支持联系:如果以上方法都无法解决问题,建议联系相关的技术支持团队或管理员,他们可能能够提供更具体的解决方案或帮助你进一步排查问题的根本原因。 需要注意的是,具体解决方法可能因个人环境和问题的性质而有所不同,请根据具体情况选择合适的解决方案。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值