Spark Insert Hbase解决task not to serializable

package javasssss;

import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.client.HTable;
import org.apache.hadoop.hbase.client.Put;
import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.api.java.function.VoidFunction;
import org.apache.spark.sql.DataFrame;
import org.apache.spark.sql.Row;
import org.apache.spark.sql.hive.HiveContext;

import java.util.Iterator;

/**
 * Created by shengjk1 on 2016/8/8.
 * blog address :http://blog.csdn.net/jsjsjs1789
 */
public class SparkInsertHbase {

    public static void main(String[] args) {
        SparkConf conf = new SparkConf().setAppName("SparkInsertHbase");
        JavaSparkContext sc = new JavaSparkContext(conf);
        HiveContext hiveContext = new HiveContext(sc.sc());

        DataFrame df = hiveContext.sql("select id,name from test");

        **//froeachPartition  foreah 会报task not  to  serializer。但对mysql来说两者都ok,推荐使用foreachPartition**
        df.toJavaRDD().foreachPartition(new VoidFunction<Iterator<Row>>() {
            private static final long serialVersionUID = -3496935835002029475L;

            @Override
            public void call(Iterator<Row> rowIterator) throws Exception {
                HTable table = new HTable(HBaseConfiguration.create(), "test");
                /*
                hbase 新api
                Configuration config = HBaseConfiguration.create();
                //若此处配置zk,则写错程序会卡死。可通过界面查看日志,解决!
                //也可以不配,但需要classpath路径有hbase-site.xml文件
                config.set("hbase.zookeeper.quorum", "centos2");
                Connection conn= ConnectionFactory.createConnection(config);
                Table table=conn.getTable(TableName.valueOf("test"));
                */

                while (rowIterator.hasNext()) {
                    Row row = rowIterator.next();
                    String id = row.getString(0);
                    String name = row.getString(1);
                    Put put = new Put("f".getBytes());
                    put.addColumn("f".getBytes(), "id".getBytes(), id.getBytes());
                    put.addColumn("f".getBytes(), "name".getBytes(), name.getBytes());

                    table.put(put);
                }


//              String tableName = "test";
//              Table table=conn.getTable(TableName.valueOf(tableName));


            };

        });


    }

}

解决task not to serializable总共有三种办法,具体参照:

http://stackoverflow.com/questions/25250774/writing-to-hbase-via-spark-task-not-serializable

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

shengjk1

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值