- 博客(7)
- 资源 (2)
- 收藏
- 关注
转载 Hive之分区(Partitions)和桶(Buckets)
hive引入partition和bucket的概念,中文翻译分别为分区和桶(我觉的不是很合适,但是网上基本都是这么翻译,暂时用这个吧),这两个概念都是把数据划分成块,分区是粗粒度的划分桶是细粒度的划分,这样做为了可以让查询发生在小范围的数据上以提高效率。 首先介绍分区的概念,还是先来个例子看下如果创建分区表: [code lang=”sql”] create table logs_par
2016-05-24 10:25:03 1327
原创 hive的使用
1.创建table; 2.导入本地数据: 3.查询hive表 4.查看hdfs目录下的文件(表数据) 注:如出现查看表数据存在,但是执行 select查询hive表出现null可能是数据文件中的分隔符的问题,更改分隔符,再次导入查询即可。 从hdfs导入数据到hive表 首先上传建好的文件到xhdfs系统; 查看上传后的文件: hiv
2016-05-23 16:57:58 4655
原创 Hql:数据定义
参数设置 1.set hive.cli.print.current.db=true可以上CLI显示当前的数据库名称; 2.可以用like 配合正则表达式查询相应条件的数据库名。show database like 'hji.*';//显示以hji开头的数据库 3.用create database创建数据库的时候会在hive.metastore.warehouse.dir相应的目录下创建相应数
2016-05-21 18:52:03 1003
原创 hive命令行界面
1.变量和属性 启动hive时加入参数,进行定义变量,启动之后可以更改参数的值; $hive --define foo=bar hive>set foo;查询变量的值 或者hive>set hivevar:foo; 更改变量值hive>set hivevar:foo=bar2; 在创建表时可以用hive中定义的变量,如: hive>create table hadoop (id in
2016-05-19 16:57:33 2413
原创 hive的安装和配置
首先下载hive的安装包apache-hive-1.2.1-bin.tar.gz,解压到相应的目录下sudo tar -zxvf apache-hive-1.2.1-bin.tar.gz,然后更改文件接名称 sudo mv 解压后的文件夹名 hive文件夹名; 进入文件夹进行配置,cd hive文件夹名 1.把hive的所在目录写入到相应用户的~/.bashrc文件(或者针对所有用户
2016-05-19 16:17:49 1726
原创 linux下的path和classpth
linux下的安装包里面的bin目录下存放这软件的可执行文件,如hadoop的start-all.sh和hive中的hive等。当安装软件时,在相应的~/.bashrc(个别用户下)或/etc/profile(用于所有用户)中设置了软件的安装路径后如:export HIVE_HOME=....;然后可以在相应的bin/目录下运行科执行文件。(必须在bin目录下才能执行)。 若果在相应的~/.ba
2016-05-18 11:43:02 1003
原创 hive安装配置及遇到的问题解决
1.下载hive安装包apache-hive-1.2.1-bin.tar.gz 2.解压安装包,并移动到要安装的路径下 sudo tar -zxvf apache-hive-1.2.1-bin.tar.gz sudo mv -r hive1.2.1 /usr/local/ 3.配置hive环境变量 vi /etc/profile 添加环境变量值 export HIVE_HOM
2016-05-16 11:48:00 13815
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人