1.格式化名称节点
hadoop namenode -format
2.查看文件系统
hadoop fs -ls /
3.加载本地文件到hive表
load data local inpath ‘/gw/hive_data/course.txt’ into table course;
4.linux删除文件第n行
sed -i ‘1d’ file.name // nd 表示删除第n行
5.linux查看文件前n行
head -5 file.name //查看前5行
6.利用sqoop将hive表导入到mysql
./bin/sqoop export ##表示数据从 hive 复制到 mysql 中
–connect jdbc:mysql://localhost:3306/dblab
–username root #mysql登陆用户名
–password hadoop #登录密码
–table user_action #mysql 中的表,即将被导入的表名称
–export-dir '/user/hive/warehouse/dblab.db/user_action ’ #hive 中被导出的文件
–fields-terminated-by ‘\t’ #Hive 中被导出的文件字段的分隔符