注意:一下提到的”目录“,含义均为:”位置“。就是觉得说目录好像书面语一点啦。
1.文件上传
[hadoop@hadoop000 tmp]$ hadoop dfs -put ./info.txt /data/info.txt
命令格式:hadoop dfs -put 要上传的文件所在目录 上传到hdfs上的文件目录
目录形式:
2.文件查看
hadoop dfs -text /data/info.txt
命令格式: hadoop dfs -text 需要查看的hdfs文件目录
3.文件删除
hadoop dfs -rm /user/info.txt
命令格式:hadoop dfs -rm 需要删除的hdfs文件目录
文件系统浏览器网址:主机IP/配置好的域名 + 50070
4.解析打好的jar包并运行
hadoop jar /home/hadoop/app/tmp/libs/test-hdfs-1.0-SNAPSHOT.jar com.kgc.HbaseEG.HBaseImportApp access_mr /data/info.txt
命令格式:hadoop jar jar包所在目录 要使用的类的全类名 要导入数据的表名 提供数据来源的hdfs文件所在目录
运行成功截图:
报错解决:
Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/hadoop/hbase/HBaseConfiguration
解决: export HADOOP_CLASSPATH=`${hbase_home}/bin/hbase classpath`
注意:这里的hadoop路径名应该和自己在vi ~/.bash_profile所配置的hadoop路径名保持一致
5.切换用户
其他用户切换到root用户:
su root
root用户切换到其他用户:
su - hadoop