1.
解压文件 tar -zxvf apache-hive-2.3.2-bin.tar.gz tar -zxvf archive_name.tar.gz -C new_dir
压缩文件 tar -zcvf archive_name.tar.gz filename
2.
复制文件并重命名 cp 源文件 目标文件 cp hive-env.sh.template hive-env.sh
查看编辑文件 vi hive-env.sh :q! 不保存文件,强制退出vi命令
:w 保存文件,不退出vi命令
:wq 保存文件,退出vi命令
删除文件 rm 文件名
移动文件 mv 源文件 目录
创建文件路径 mkdir (目录属性) 目录名称
3.数据库操作
进入数据库 mysql -uroot -p 密码:mysqladmin
4.hadoop转移文件到hdfs中(linux下前加一个hadoop)
hadoop fs -put student.txt /user/hive/warehouse/test.db/student4.hadoop转移文件到hdfs中(linux下前加一个hadoop)
hadoop fs -put student.txt /user/hive/warehouse/test.db/student
删除文件or目录
hadoop fs -rm /user/hive/warehouse/test.db/student
创建目录
hadoop fs -mkdir /user/hive/data
5.显示当前路径
pwd
注:
$sudo vi /etc/profile 后要加 $ source /etc/profile