1.退出 exit 和quit两种方式
exit退出会有日志,属于柔和一点的, 直译的话是表示从这个地方出去还会再回来
quit的没有日志,直译的话是直接退出,一般不会在进入
2.重启 reset
输入reset和直接输入分号是一样的,这个reset到底有啥用呢
3.打印用户或hive覆盖的配置变量列表 set
4.打印所有Hadoop和Hive配置变量
5.自己设定一个变量 set key=value;
6.常用的添加一些文件jar包和档案(这个档案没用过,jar包加过)
这个是指定路径的形式
add FILE[S] <filepath> <filepath>*
add JAR[S] <filepath> <filepath>*
add ARCHIVE[S] <filepath> <filepath>*
指定为url连接的形式
add FILE[S] <ivyurl> <ivyurl>*
add JAR[S] <ivyurl> <ivyurl>*
add ARCHIVE[S]<ivyurl> <ivyurl>*
那么关于这些添加的作用是什么呢:
这些文件作为会话的额外资源在查询执行时可以使用,任何本地可访问的文件都可以添加到会话中。
一旦文件被加入到会话中,Hive查询可以通过文件资源的名称引用它(在map/reduce/transform子句中)
并且在执行时该资源文件在整个Hadoop集群上都是本地可用的。Hive在查询执行时使用Hadoop的分布式缓存将资源分布到集群中的所有机器上。
普通文件资源通常是像转换脚本一类的文件,该类型的文件仅仅被加入到分布式缓存中。
JAR文件也会加入到classpath中,这就要求依次引用包含诸如UDF的对象。归档文件在分布时自动解压缩。
**具体的加载jar包并声明函数的方法:
加载jar包:add jar jarpath/udf.jar;
声明函数:create function fa as 'packagename.classname' ;
7.列出已添加到分布式缓存的资源
list FILE [S]
list JAR [S]
list ARCHIVE [S]
8.检查给定资源是否已添加到分布式缓存中
list FILE [S] <filepath> *
list JAR [S] <filepath> *
list ARCHIVE [S] <filepath> *
9.与上述对应的一些删除方式
delete FILE[S] <filepath>*
delete JAR[S] <filepath>*
delete ARCHIVE[S] <filepath>*
delete FILE[S] <ivyurl> <ivyurl>*
delete JAR[S] <ivyurl> <ivyurl>*
delete ARCHIVE[S] <ivyurl> <ivyurl>*
10.从hive shell中执行shell命令和dfs命令
! <command>
dfs <dfs command>
11.执行Hive查询并将结果打印到标准输出
<query string>
12.在CLI中执行脚本文件 //从一个脚本调另一个用,一般需要加载配置文件要用 source config.sh
source FILE <filepath>