对于文件的操作,命令与linux的类似,但是要在前面加上hadoop fs
其基本的格式为 hadoop fs <agrs>
-
查看文件 hadoop fs -ls
-
建立路径 hadoop fs -mkdir
-
删除文件夹 hadoop fs -rm -r
-r参数代表将此文件夹连同此文件夹下的所有文件删除
-
将本地文件放到HDFS上 hadoop fs -put [dir1][dir2]
参数dir1代表本地路径,dir2代表HDFS路径
-
将HDFS上的文件下载到本地 hadoop fs -get [dir1][dir2]
参数dir1代表HDFS路径,dir2代表本地路径
-
查看文件 hadoop fs -cat
-
合并HDFS中的文件并下载到本地 hadoop fs -getmerge [dir] [file]
参数dir代表HDFS存储要合并的文件所在的路径,file代表将合并结果存储的本地文件名
text1和wordcount合并后的内容
-
使用HUE,service hue start
端口为8888,用户名密码都是hdfs
-
打开FileBrowser 界面 上面基本的对文件夹的操作都有按钮选项,如新建文件,文件夹,删除文件
进入刚刚操作的目录 /data/test下