![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
hive
15005153460
这个作者很懒,什么都没留下…
展开
-
impala刷新hive数据shell脚本
#!/bin/bash source job.properties impalaHost=$1databaseName=$2tableName=$3 echo "[INFO]: Hive Database :------> ${databaseName}"echo "[INFO]: Table Name :---------> ${tableName}"ec原创 2017-05-25 09:37:10 · 3309 阅读 · 0 评论 -
hive UDF函数
1.一直在公司琢磨hive的UDF和UDAF函数,几番测试还是不通。业务场景:物流企业有路由和线路,每条线路有班次,报表需求要求传入路由参数后,返回在最后一站的达到时刻?此业务场景sql通过临时表觉得不是高手搞不定,想到hive的UDF函数。问题:1.理由有几条线路组成? 未知数,离不开循环和递归了 2.每条线路有多班次,选择哪个班次? 在循原创 2017-06-01 18:28:50 · 3869 阅读 · 0 评论 -
hive UDAF函数
package com.ymdd; import org.apache.hadoop.hive.ql.exec.UDFArgumentTypeException;import org.apache.hadoop.hive.ql.metadata.HiveException;import org.apache.hadoop.hive.ql.parse.SemanticExcep原创 2017-06-25 19:38:30 · 1235 阅读 · 1 评论 -
hvie UDF函数
package com.ymdd;import java.text.DecimalFormat;import org.apache.hadoop.hive.ql.exec.UDF;import org.apache.hadoop.io.Text;public class HiveUdf extends UDF {public static String原创 2017-06-25 19:39:27 · 689 阅读 · 0 评论 -
欢迎使用CSDN-markdown编辑器
摘要:本文将要说明如何使用Spark来对Hive进行操作1、打jar包,提交Spark任务 通过提交spark任务的方式,如下面的scala代码。之后需要将成代码打包成一个jar包,然后提交到spark中去.一般情况下生产上建议使用这种方法,可以灵活控制sql里的各项参数[plain] view plain copy print?val conf = new SparkConf() va翻译 2017-12-01 13:54:01 · 286 阅读 · 0 评论 -
hive单节点安装
hive单节点安装1.tar -zxvf hive*.tar.gz2.cd hive3.cp conf/hive-default.xml.template conf/hive-site.xml cp conf/hive-env.sh.template conf/hive-env.sh cp conf/hive-log4j.properties.tem原创 2017-04-28 16:05:47 · 790 阅读 · 0 评论