hive血缘字段解析

本文档展示了如何实现一个自定义的Hive钩子函数,该函数继承自LineageLogger并实现了ExecuteWithHookContext接口,用于解析Hive执行日志。在运行时,该钩子会捕获并分析SQL操作,如建表、修改表属性等,并通过LineageUtils工具类解析SQL语句以获取输入、输出和WITH子句中的表信息。此外,还提供了示例代码来说明如何处理不同的Hive操作和解析SQL语句。
摘要由CSDN通过智能技术生成

一、实现hive钩子函数,解析hive日志

我这边写了MyHive类,继承LineageLogger类,实现ExecuteWithHookContext接口

package com.zsins.hook;
import com.zsins.hook.utils.HiveSqlBloodFigureUtil;
import org.apache.commons.lang3.StringUtils;
import org.apache.hadoop.hive.metastore.api.Database;
import org.apache.hadoop.hive.ql.QueryPlan;
import org.apache.hadoop.hive.ql.hooks.*;
import org.apache.hadoop.hive.ql.optimizer.lineage.LineageCtx;
import org.apache.hadoop.hive.ql.session.SessionState;
import org.codehaus.jackson.map.ObjectMapper;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
import java.sql.*;
import java.util.Set;

public class MyHiveHook extends LineageLogger implements ExecuteWithHookContext {

        private static Logger logger = LoggerFactory.getLogger(MyHiveHook.class);

//    private static final HashSet<String> OPERATION_NAMES = new HashSet<>();
//    static {
//        // 建表
//        OPERATION_NAMES.add(HiveOperation.CREATETABLE.getOperationName());
//        // 修改数据库属性
//        OPERATION_NAMES.add(HiveOperation.ALTERDATABASE.getOperationName());
//        // 修改数据库属主
//        OPERATION_NAMES.add(HiveOperation.ALTERDATABASE_OWNER.getOperationName());
//        // 修改表属性,添加列
//        OPERATION_NAMES.add(HiveOperation.ALTERTABLE_ADDCOLS.getOperationName());
//        // 修改表属性,表存储路径
//        OPERATION_NAMES.add(HiveOperation.ALTERTABLE_LOCATION.getOperationName());
//        // 修改表属性
//        OPERATION_NAMES.add(HiveOperation.ALTERTABLE_PROPERTIES.getOperationName());
//        // 表重命名
//        OPERATION_NAMES.add(HiveOperation.ALTERTABLE_RENAME.getOperationName());
//        // 列重命名
//        OPERATION_NAMES.add(HiveOperation.ALTERTABLE_RENAMECOL.getOperationName());
//        // 更新列,先删除当前的列,然后加入新的列
//        OPERATION_NAMES.add(HiveOperation.ALTERTABLE_REPLACECOLS.getOperationName());
//        // 创建数据库
//        OPERATION_NAMES.add(HiveOperation.CREATEDATABASE.getOperationName());
//        // 删除数据库
//        OPERATION_NAMES.add(HiveOperation.DROPDATABASE.getOperationName());
//        // 删除表
//        OPERATION_NAMES.add(HiveOperation.DROPTABLE.getOperationName());
//    }

        private static String toJson(Entity entity) throws Exception {
            ObjectMapper mapper = new ObjectMapper();
            switch (entity.getType()) {
                case DATABASE:
                    Database db = entity.getDatabase();
                    return mapper.writeValueAsString(db);
                case TABLE:
                    return mapper.writeValueAsString(entity.getTable().getTTable());
            }
            return null;
        }

        public void run(HookContext hookContext) {

//        logger.info("this is my hive hook");

            try{

                assert (hookContext.getHookType() == HookContext.HookType.POST_EXEC_HOOK);
                QueryPlan plan = hookContext.getQueryPlan();
                LineageCtx.Index index = hookContext.getIndex();
                SessionState ss = SessionState.get();
                String operationName = plan.getOperationName();
                logger.info("执行的SQL语句: " + plan.getQueryString());
                LineageUtils lep = new LineageUtils();
                lep.getLineageInfo(plan.getQueryString());
                logger.info("Input tables = " + lep.getInputTableList());
                logger.info("Output tables = " + lep.getOutputTableList());
                logger.info("with tables = " + lep.getWithTableList());
                if(!lep.getInputTableList().isEmpty()&&!lep.getOutputTableList().isEmpty()&&lep.getInputTableList().size()!=0&&lep.getOutputTableList().size()!=0){
                    HiveSqlBloodFigureUtil.parseAndCrud(plan.getQueryString());
                }else{
                    logger.info("输出表或输入表为空,无需解析");
                }

                if(ss != null && index  != null && !plan.isExplain() ) {

                    plan.getOutputs();
//            if (OPERATION_NAMES.contains(operationName) && !plan.isExplain()) {
//                logger.info("监控SQL操作");


//                Set<ReadEntity> inputs = hookContext.getInputs();
                    Set<WriteEntity> outputs = hookContext.getOutputs();
//
                for (Entity entity : inputs) {
                    logger.info("Hook metadata输入值: " + toJson(entity));
                }
//
                    for (Entity entity : outputs) {
                        logger.info("Hook metadata输出值: " + toJson(entity));
                    }

                } else {
                    logger.info("不在监控范围,忽略该hook!");
                }
            } catch ( Exception  e) {

            }
        }
    }

在"执行的SQL语句"处可以拿到执行的整条sql语句,然后结合hive sql解析工具类,实现整条sql语句的解析
这个解析工具类为LineageUtils

package com.zsins.hook;

import org.apache.hadoop.hive.ql.lib.*;
import org.apache.hadoop.hive.ql.parse.*;

import java.io.IOException;
import java.util.*;

public class LineageUtils implements NodeProcessor {
    // 存放输入表
    TreeSet<String> inputTableList = new TreeSet<String>();

    // 存放目标表
    TreeSet<String> outputTableList = new TreeSet<String>();

    //存放with子句中的别名, 最终的输入表是 inputTableList减去withTableList
    TreeSet<String> withTableList = new TreeSet<String>();

    public TreeSet getInputTableList() {
        return inputTableList;
    }

    public TreeSet getOutputTableList() {
        return outputTableList;
    }

    public TreeSet getWithTableList() {
        return withTableList;
    }
    @Override
    public Object process(Node nd, Stack stack, NodeProcessorCtx procCtx, Object... nodeOutputs) throws SemanticException {
        ASTNode pt = (ASTNode) nd;
        switch (pt.getToken().getType()) {
            //create语句
            case HiveParser.TOK_CREATETABLE: {
                String createName = BaseSemanticAnalyzer.getUnescapedName((ASTNode) pt.getChild(0));
                outputTableList.add(createName);
                break;
            }

            //insert语句
            case HiveParser.TOK_TAB: {
                // System.out.println(pt.getChildCount() + "tab");
                String insertName = BaseSemanticAnalyzer.getUnescapedName((ASTNode) pt.getChild(0));
                outputTableList.add(insertName);
                //  System.out.println("insertName  " + insertName);
                break;
            }

            //from语句
            case HiveParser.TOK_TABREF: {
                ASTNode tabTree = (ASTNode) pt.getChild(0);
                String fromName = (tabTree.getChildCount() == 1) ? BaseSemanticAnalyzer.getUnescapedName((ASTNode) tabTree.getChild(0)) : BaseSemanticAnalyzer.getUnescapedName((ASTNode) tabTree.getChild(0)) + "." + tabTree.getChild(1);
                inputTableList.add(fromName);
                break;
            }

            // with.....语句
            case HiveParser.TOK_CTE: {
                for (int i = 0; i < pt.getChildCount(); i++) {
                    ASTNode temp = (ASTNode) pt.getChild(i);
                    String cteName = BaseSemanticAnalyzer.getUnescapedName((ASTNode) temp.getChild(1));
                    withTableList.add(cteName);
                }
                break;
            }
        }
        return null;
    }

    public void getLineageInfo(String query) throws ParseException, SemanticException {

        ParseDriver pd = new ParseDriver();
        ASTNode tree = pd.parse(query);

        while ((tree.getToken() == null) && (tree.getChildCount() > 0)) {
            tree = (ASTNode) tree.getChild(0);
        }
        inputTableList.clear();
        outputTableList.clear();
        withTableList.clear();

        Map<Rule, NodeProcessor> rules = new LinkedHashMap<Rule, NodeProcessor>();

        Dispatcher disp = new DefaultRuleDispatcher(this, rules, null);
        GraphWalker ogw = new DefaultGraphWalker(disp);

        ArrayList topNodes = new ArrayList();
        topNodes.add(tree);
        ogw.startWalking(topNodes, null);
    }


    //进行测试,sql语句是瞎写的,但是语法是对的
    public static void main(String[] args) throws IOException, ParseException, SemanticException {
        //String query = "insert into qc.tables_lins_cnt partition(dt='2016-09-15') select a.x from (select x from cc group by x) a left  join yy b on a.id = b.id left join (select * from zz where id=1) c on c.id=b.id";
        // String query ="from (select id,name from xx where id=1) a insert overwrite table  dsl.dwm_all_als_active_d partition (dt='main') select id group by id insert overwrite table  dsl.dwm_all_als_active_d2 partition (dt='main') select name group by name";
        String query = "CREATE  TABLE dcl.dcl_cmp_crm_ddsupplier_feeback\n" +
                "as\n" +
                "select \n" +
                "  ddsupplier_feeback_id ,\n" +
                "  policy_no ,\n" +
                "  workorder_id ,\n" +
                "  user_name ,\n" +
                "  id_no ,\n" +
                "  policy_licenseno ,\n" +
                "  rescue_project ,\n" +
                "  rescue_name ,\n" +
                "  specification ,\n" +
                "  num ,\n" +
                "  use_num ,\n" +
                "  residue_num ,\n" +
                "  equity_id ,\n" +
                "  phone_no ,\n" +
                "  concrrnphone ,\n" +
                "  indent_status ,\n" +
                "  random_num ,\n" +
                "  sign_time ,\n" +
                "  supplier_no ,\n" +
                "  supplier_name ,\n" +
                "  sysource ,\n" +
                "  opercode ,\n" +
                "  opername ,\n" +
                "  createdate ,\n" +
                "  updatedate ,\n" +
                "  remake ,\n" +
                "  islocked ,\n" +
                "  use_time ,\n" +
                "  order_time ,\n" +
                "  apply_phone_no ,\n" +
                "  mile ,\n" +
                "  start_poi_name ,\n" +
                "  end_poi_name ,\n" +
                "  start_poi_address ,\n" +
                "  end_poi_address ,\n" +
                "  use_property ,\n" +
                "  seatcount ,\n" +
                "  payamount ,\n" +
                "  road_rescue_totalnum ,\n" +
                "  substitute_driver_totalnum ,\n" +
                "  behalf_inspection_totalnum ,\n" +
                "  vehicle_safety_totalnum ,\n" +
                "  reserve01 ,\n" +
                "  risk_code  \n" +
                " from ods.cmp_crm_ddsupplier_feeback";
        LineageUtils lep = new LineageUtils();
        lep.getLineageInfo(query);
        System.out.println("Input tables = " + lep.getInputTableList());
        System.out.println("Output tables = " + lep.getOutputTableList());
        System.out.println("with tables = " + lep.getWithTableList());
    }
}

二、实现结果

实现结果如下:
在这里插入图片描述

  • 0
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论
Hive 是一个基于Hadoop 架构的数据仓库工具,它提供了一个SQL 接口,用于查询和分析存储在Hadoop 分布式文件系统(HDFS) 上的大数据集。Hive 通过元数据管理来跟踪数据的血缘关系,这是通过解析Hive 查询计划来实现的。 当用户提交一个Hive 查询时,Hive 会将其转化为一个查询计划,该计划由一系列的MapReduce 任务或Spark 作业组成。在查询计划中,Hive 会记录每个任务或作业所需的输入数据和输出数据的信息。 为了解析血缘关系,Hive 在元数据中维护了每个表的相关信息,包括表的名称、列的字段和分区信息等。在查询计划中,Hive 会根据需要访问的表和列的信息来构建血缘关系。通过追踪查询计划中的输入输出操作,Hive 可以确定每个数据操作的来源。 具体而言,当Hive 解析一个查询计划时,它会记录每个任务或作业所操作的表和列。对于输入数据,Hive 可以确定该数据是从哪个表、哪个列中选取的。对于输出数据,Hive 可以确定该数据将被写入到哪个表、哪个列中。 通过解析血缘关系,Hive 可以提供一些有用的功能。首先,它可以帮助用户了解数据的来源,确保数据的准确性。其次,它可以帮助用户跟踪数据流转的路径,方便故障排查和调试。最后,它还可以支持数据血缘的追踪和分析,帮助用户了解数据的派生过程和相关性。 总而言之,Hive 通过解析查询计划来构建和维护数据的血缘关系。这种血缘关系的解析可以帮助用户了解数据的来源、跟踪数据流转、支持数据血缘的追踪和分析等功能。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

明月清风,良宵美酒

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值