![](https://img-blog.csdnimg.cn/20201014180756926.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Hive
文章平均质量分 85
cfy_yinwenhao
这个作者很懒,什么都没留下…
展开
-
HIVE与GB2312字符集
HIVE 的Driver类在处理字符串时,是按照UTF-8来处理,但是HIVE的JDBC确没有强制按照UTF-8来处理,所以会发生中文字符无论是UTF8还是GB2312都会在JDBC查询时,都不能正确输出。 在Linux下Java的FileWriter默认是UTF8来写文件的,所以通过HIVE导入到HADOOP后,也是UTF-8的格式,如果依照之前(http://blog.csdn.net原创 2011-11-17 14:57:02 · 2289 阅读 · 0 评论 -
java 通过jdbc驱动连接hive操作实例
1,hive首先要起动远程服务接口,命令:# ./hive --service hiveserver >/dev/null 2>/dev/null & 默认开发10000端口在个别机器上,运行 ./hive --service hiveserver 会启动卡住。 2.java工程中导入相应的需求jar包,列表如下:antlr-runtime-3转载 2011-11-13 11:46:05 · 1735 阅读 · 0 评论 -
Hive Partitioned & Index
hive特性:数据存储在hdfs上,依托hadoop集群实现并行计算,采用hiveQL作为查询语言,与SQL极其相似,Hive中存储的数据无固定格式要求,可随用户自定义可追加数据,但不支持更改,可扩展性强,支持大规模并行计算。Create table xxxData(VStart string,VEnd string......)partitioned by (PID int,转载 2011-11-12 16:02:25 · 1107 阅读 · 0 评论 -
HIVE Service自动启动
1. 将hive 的metastore用mysql连接储存2 在/etc/init.d/文件夹中编辑文件hive-thrift#!/bin/bash# init script for Hive Thrift Interface.## chkconfig: 2345 90 10# description: Hive Thrift Interface# Sour转载 2011-12-11 20:31:50 · 1932 阅读 · 0 评论 -
HIVE 结构
HIVE 主要分为以下几个部分:用户接口,包括 CLI,Client,WUI。元数据存储,通常是存储在关系数据库如 mysql, derby 中。解释器、编译器、优化器、执行器。Hadoop:用 HDFS 进行存储,利用 MapReduce 进行计算。用户接口主要有三个:CLI,Client 和 WUI。其中最常用的是 CLI,Cli 启动的时候转载 2012-01-11 14:10:19 · 442 阅读 · 0 评论