Hadoop学习笔记(11)-搭建Hive伪分布式及简单操作

1.下载Hive
http://hive.apache.org/downloads.html
从该网址下载hive。我下载的是hive-2.1.0版本
之后用tar命令解压,我是解压到/usr/local/hadoop目录下。
2.配置环境变量
进入.bashrc 修改hive环境变量。

vim ~/.bashrc

在最后加入:

export HIVE_HOME=/usr/local/hadoop/apache-hive-2.1.0-bin
export PATH=$HIVE_HOME/bin:$PATH

3.在HDFS上创建Hive文件目录
先开启hadoop

$ $HADOOP_HOME/bin/hadoop fs -mkdir /tmp
$ $HADOOP_HOME/bin/hadoop fs -mkdir /user/hive/warehouse
$ $HADOOP_HOME/bin/hadoop fs -chmod g+w /tmp
$ $HADOOP_HOME/bin/hadoop fs -chmod g+w /user/hive/warehouse

5.启动Hive Shell
启动前初始元数据的存储数据库(这里用derby,也可以用mysql,但需配置)

schematool -dbType derby -initSchema

然后再用hive或hive shell 打开hive操作界面。
这里写图片描述
6.HiveSQL操作简介

1.1 DDL语句
创建表pokes,有两类属性foo(int型),和bar(string型):

hive> CREATE TABLE pokes (foo INT, bar STRING);

创建表invites,通过ds属性来做分区:

hive> CREATE TABLE invites (foo INT, bar STRING) PARTITIONED BY (ds STRING);

显示已经有的所以表:

hive> SHOW TABLES;
OK
invites
pokes
Time taken:0.159 seconds,Fetched:2 row(s)

显示已S结尾的表:

  hive> SHOW TABLES '.*s';

显示表invites的信息:

chive> desc invites;
OK
foo                     int                                         
bar                     string                                      
ds                      string                                      

# Partition Information      
# col_name              data_type               comment             

ds                      string                                      
Time taken: 0.171 seconds, Fetched: 8 row(s)

给pokes表添加新列:

hive> ALTER TABLE pokes ADD COLUMNS (new_col INT);

更多详细内容见:
https://cwiki.apache.org/confluence/display/Hive/LanguageManual+DDL

6.2 DML语句

加载数据

hive> LOAD DATA LOCAL INPATH './examples/files/kv1.txt' OVERWRITE INTO TABLE pokes;

更多详细内容见:
https://cwiki.apache.org/confluence/display/Hive/LanguageManual+DML

6.3 SELECT查询语句

hive> SELECT a.foo FROM invites a WHERE a.ds='2008-08-15';

更多详细内容见:
https://cwiki.apache.org/confluence/display/Hive/LanguageManual+Select

7HiveSQL实验
还是来做个小实验把。更多内容见官网实验例子:
https://cwiki.apache.org/confluence/display/Hive/GettingStarted#GettingStarted-DDLOperations

8.Hive JDBC编程接口
参见下链接:
Hive编写MapReduce程序(这里笔者还没有实验过)
http://blog.csdn.net/magina507/article/details/51649890

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,下面是Hadoop安装教程-单机-分布式配置-Hadoop2.6.0-Ubuntu14.04详细教程教学: 1. 安装Java Hadoop是基于Java开发的,因此需要先安装Java。可以在终端中输入以下命令进行安装: ```bash sudo apt-get update sudo apt-get install default-jdk ``` 2. 下载Hadoop 可以在Hadoop官网下载Hadoop压缩包,也可以在终端中输入以下命令进行下载: ```bash wget https://archive.apache.org/dist/hadoop/core/hadoop-2.6.0/hadoop-2.6.0.tar.gz ``` 3. 解压Hadoop 在终端中输入以下命令解压Hadoop压缩包: ```bash tar -xzvf hadoop-2.6.0.tar.gz ``` 4. 配置Hadoop环境变量 打开终端中的/etc/environment文件,并在其中添加以下内容: ```bash export HADOOP_HOME=/path/to/hadoop export PATH=$PATH:$HADOOP_HOME/bin ``` 其中,/path/to/hadoopHadoop所在的路径。保存文件后,输入以下命令使配置生效: ```bash source /etc/environment ``` 5. 配置Hadoop 进入Hadoop目录,编辑etc/hadoop/hadoop-env.sh文件。找到以下行: ```bash export JAVA_HOME=${JAVA_HOME} ``` 将其修改为: ```bash export JAVA_HOME=/usr/lib/jvm/default-java ``` 保存文件并关闭。 6. 配置HDFS 进入etc/hadoop目录,编辑hdfs-site.xml文件。添加以下内容: ```xml <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/path/to/hadoop/data/dfs/namenode</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/path/to/hadoop/data/dfs/datanode</value> </property> </configuration> ``` 其中,/path/to/hadoop/data为Hadoop数据存储路径。 7. 配置YARN 进入etc/hadoop目录,编辑yarn-site.xml文件。添加以下内容: ```xml <configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> </configuration> ``` 8. 配置MapReduce 进入etc/hadoop目录,编辑mapred-site.xml文件。添加以下内容: ```xml <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration> ``` 9. 格式化HDFS 在终端中输入以下命令格式化HDFS: ```bash hdfs namenode -format ``` 10. 启动Hadoop 在终端中输入以下命令启动Hadoop: ```bash start-all.sh ``` 11. 验证Hadoop 在浏览器中输入http://localhost:50070,即可访问Hadoop Web UI。在该页面中可以查看HDFS的状态、数据块、节点等信息。 以上就是Hadoop安装教程-单机-分布式配置-Hadoop2.6.0-Ubuntu14.04详细教程教学。希望对你有所帮助!

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值