hive
docsz
擅长大数据平台架构,数仓设计,数据湖落地;构建企业级数据平台
展开
-
使用kettle将Oracle数据生产json文本
使用kettle将Oracle数据生产json文本原创 2018-11-15 09:42:35 · 1600 阅读 · 0 评论 -
Sqoop处理Oracle大字段BLOB
Sqoop处理Oracle大字段BLOB原创 2021-04-30 14:50:18 · 783 阅读 · 1 评论 -
Ambari2.7.4配置HIVE_AUX_JARS_PATH
ambar2.7配置hive_aux_jars_path原创 2022-06-10 17:02:25 · 624 阅读 · 0 评论 -
Hive复制表结构
hive复制表结构原创 2022-04-21 14:48:31 · 2340 阅读 · 0 评论 -
DataX读取Hive表写入Oracle之orc存储格式
1、脚本{ "job": { "content": [{ "reader": { "name": "hdfsreader", "parameter": { "column": [ { "index": 0, "type": "STRING" }, { "index": 1, "type": "STRING" }, { "index": 2,原创 2022-04-21 14:11:39 · 2336 阅读 · 0 评论 -
DataX读取Oracle写入Hive之orc存储格式
1、脚本{ "core": { "transport": { "channel": { "speed": { "byte": 10485760, "record": 100000 } } } }, "job": { "content": [{ "reader": { "name": "oraclereader", "parameter": { "column": [ "BJBH", "原创 2022-04-21 14:07:47 · 2678 阅读 · 0 评论 -
Sqoop从Hive导入Oracle
1、Sqoop从Hive导入Oraclesqoop export \--connect "jdbc:oracle:thin:@//IP:1521/orcl" \--username "root" \--password "123456" \--table STG_ZFW_WANGGEXINXI \--export-dir /user/hive/warehouse/mask_data.db/stg_zfw_wanggexinxi/* \--columns XM,ZJHM,WANGGE,BUILD原创 2022-04-15 17:32:57 · 1614 阅读 · 0 评论 -
DataX之Hive写入MySQL的NULL值处理
1、Hive建表CREATE TABLE `rcdn_ads.ads_rcdn_zc_xq`( `qybm` varchar(25) COMMENT '区域编码', `csbm` varchar(25) COMMENT '城市编码', `shengbm` varchar(25) COMMENT '省份编码', `cybm` varchar(25) COMMENT '产业编码', `zclxbm` varchar(25) COMMENT '政策类型编码', `zcztbm`原创 2022-03-09 15:07:04 · 3893 阅读 · 0 评论 -
DataX-MySQL-to-Hive之Hadoop HA
1、脚本{ "setting": {}, "job": { "setting": { "speed": { "channel": 2 } }, "content": [ { "reader": { "name": "mysqlreader", "para原创 2022-02-22 16:08:32 · 270 阅读 · 0 评论 -
DataX之type-value配置Hive-to-MySQL
1、脚本{ "job": { "setting": { "speed": { "channel": 3 } }, "content": [ { "reader": { "name": "hdfsreader", "parameter":原创 2022-02-22 16:04:05 · 295 阅读 · 0 评论 -
DataX之Hive-to-MySQL
1、脚本{ "job": { "setting": { "speed": { "channel": 3 } }, "content": [ { "reader": { "name": "hdfsreader", "parameter":原创 2022-02-22 15:58:48 · 998 阅读 · 0 评论 -
sqoop import query
sqoop import query原创 2022-02-11 14:37:18 · 1485 阅读 · 0 评论 -
Sqoop MySQLImport of TINYINT
sqoop Import of TINYINT原创 2021-12-24 17:20:04 · 1274 阅读 · 0 评论 -
sqoop import hive parquet表timestamp,decimal转换问题
sqoop mysql导入hive parquet表timestamp,decimal原创 2021-12-24 17:17:30 · 1564 阅读 · 0 评论 -
sqoop import decimal类型为NULL处理办法
sqoop import decimal原创 2021-12-24 17:12:02 · 887 阅读 · 0 评论 -
Oracle批量导出Hive建表语句
Oracle批量导出Hive建表语句原创 2021-12-24 13:36:06 · 1710 阅读 · 0 评论 -
DataX之MySQL-overwrite-HIVE
1、json脚本{ "job": { "setting": { "speed": { "channel": 3 }, "cipher": { "sfjm": "Y", "instance": "AES128" }, "errorLimit": { "record": "-1" } }, "content": [{ "reader":原创 2021-12-06 15:55:49 · 2050 阅读 · 2 评论 -
DataX之MySQL-append-Hive
1、mysql-to-hive.json{ "setting": {}, "job": { "setting": { "speed": { "channel": 2 } }, "content": [ { "reader": { "name": "mysqlreader", "parameter": { "username": "root", "password": "123456", "connec原创 2021-12-06 15:49:20 · 1376 阅读 · 0 评论 -
OLAP系统建模方法
OLAP系统建模方法:典型的数据仓库建模方法有ER模型、维度模型、Data Value、Anchor原创 2021-11-27 10:51:54 · 2265 阅读 · 0 评论 -
数据仓库VS数据库
数据仓库VS数据库原创 2021-11-27 08:51:08 · 167 阅读 · 0 评论 -
Hive-创建库表测试
drop database if exists `ods`;create database `ods`;use ods; create table `dept`(`deptno` int, `dname` varchar(14),`loc` varchar(13)) row format delimited fields terminated by '\t' stored as textfile; insert into dept values (10,'accounting','n原创 2021-10-29 17:24:33 · 1592 阅读 · 0 评论 -
Hive-元数据查询表数据量
Statistics使用1、表,分区级别的统计信息对于新创建的表或者分区,默认情况下,如果通过INSERT OVERWRITE的方式插入数据,那么Hive会自动将该表或分区的统计信息更新到元数据。有一个参数来控制是否自动统计,hive.stats.autogather,默认为true.对于已经存在表或分区我们可以通过ANALYZE命令手动更新其Statistics信息:ANALYZE TABLE Table1 COMPUTE STATISTICS;//统计全表的所有分区的信息ANALYZE TA原创 2021-06-30 17:27:18 · 10609 阅读 · 0 评论 -
shell脚本实现Hive库表迁移
待完善,比如何删除建表语句的倒数第2到13行;欢迎指正原创 2018-12-10 09:45:19 · 348 阅读 · 0 评论 -
create table as select 指定分隔符
create table t_shop_dm.t_tmp_txtrow format delimited fields terminated by ‘\t’ lines terminated by ‘\n’stored as textfile as select * from t_shop_dm.t_tmp;原创 2021-06-17 16:07:58 · 972 阅读 · 0 评论 -
Hive3.1.2编译
1、修改pom文件 <spark.version>3.1.1</spark.version> <scala.binary.version>2.12</scala.binary.version> <scala.version>2.12.10</scala.version> <hadoop.version>3.2.2</hadoop.version> <guava.version&g原创 2021-05-24 17:37:45 · 1713 阅读 · 0 评论 -
Java访问Hive获取表信息
1、pom依赖 <dependency> <groupId>org.apache.hive</groupId> <artifactId>hive-jdbc</artifactId> <version>${hive.version}</version> </dependency> <dependen原创 2021-05-08 09:15:40 · 2348 阅读 · 0 评论 -
Hive批量删除表分区
Hive批量删除表分区#!/usr/bin/bash#获取当前脚本所在路径cur_dir="$(cd "$(dirname "${BASH_SOURCE[0]}")" && pwd)"cd ${cur_dir}#导出所有hive数据库名hive -e "show databases;" > ${cur_dir}/all_database.txt#获取以src开头的库名cat all_database.txt | awk '{print $2}' | awk '/原创 2020-12-25 15:57:59 · 1300 阅读 · 0 评论 -
MySQL中创建Oracle中的dept、emp、bonus、salgrade表
-----------创建表CREATE TABLE dept(deptno INT(2) NOT NULL,dname VARCHAR(14),loc VARCHAR(13),CONSTRAINT pk_dept PRIMARY KEY(deptno)) ENGINE=InnoDB DEFAULT CHARSET=utf8;CREATE TABLE emp (empno int(4) NOT NULL PRIMARY KEY,ename VARCHAR(10),job VARCHAR(原创 2020-07-10 10:29:51 · 563 阅读 · 0 评论 -
hdp3 org.apache.hadoop.hive.contrib.serde2.MultiDelimitSerDe not found
1:切换到root用户chmod -R 777 /usr/hdp/3.1.4.0-315/hive/lib/hive-contrib-3.1.0.3.1.4.0-315.jar2:切换到hive用户:su - hive,进入hive;3:hive授权:set role admin;4:add jar /usr/hdp/3.1.4.0-315/hive/lib/hive-contrib-3...原创 2020-03-03 13:50:31 · 864 阅读 · 0 评论