![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Hive
文章平均质量分 67
簡箪
这个作者很懒,什么都没留下…
展开
-
Hive简介
Hive的产生背景 由于MapReduce编程的不方便:包括但不限于开发、测试、需求变更 传统的关系型数据库人员(DBA)的需要——毕竟DBA已经存在并且优化了好多年,因此如果能像使用SQL一样来处理分析大数据就会很好了 因此,Hive产生了 Hive数据在HDFS上边,因此使用SQL之前需要进行数据化、文件映射成为表格,在这个引入一个概念——Schema(元数据信息) Hive是什么 关注官...原创 2018-10-28 16:49:45 · 74 阅读 · 0 评论 -
Hive部署安装
下载对应Hadoop版本的Hive本人使用的是hive-1.1.0-cdh5.7.0.tar.gz 下载tar.gz包 或者wget 如图 下载完成以后使用tar -zxvf hive-1.1.0-cdh5.7.0.tar.gz -C ~/app/解压到app目录下 解压之后配置环境变量 将bin配置到环境变量中(~/.bash_profile) 然后source ~/.bash_profl...原创 2018-10-28 18:54:51 · 115 阅读 · 0 评论 -
Hive使用之DDL
Hive既然已经可以使用了,但是这里就会有个问题,默认的数据库是放在那里的 这里可以发现Hive有个默认的数据库default,它在HDFS的/user/hive/warehouse这个路径下,也就是说你创建一个路径默认的数据库就会在/warehouse下边。这里可以由参数hive.metstore.warehouse.dir来控制,只需要在hive输入set hive.metastore.war...原创 2018-12-06 15:48:46 · 177 阅读 · 0 评论 -
Hive使用之通过sqoop倒数据——sqoop安装
在大数据领域里面我们一直都是使用Hadoop来处理和存储数据的,但是有的时候我们需要将处理完的数据返回给前端UI来展示给我们的用户,但是如果让前端直接来访问我们的hdfs来拉取数据的话,这效率真的不敢想象。所以我们需要将我用Hadoop/Spark处理完的数据重新放置回RBDMS里面去,那么怎么将HDFS上面的数据传输回RBDMS上面呢?难道每次都先get到本地然后再写入数据库里面?这个时候肯定有...原创 2018-12-21 11:26:29 · 185 阅读 · 0 评论