打开Hadoop
自己下载的是3.1.2版本的hadoop。
大早上的也不清醒,直接想往hdfs中上传文件,失败,报错如下:
There are 0 datanode(s) running and no node(s) are excluded in this operation.
后来参考:https://blog.csdn.net/poxiao58/article/details/52244611
删掉了。找到对应的文件夹Current
我的在:Macintosh HD ▸ usr ▸ local ▸ Cellar ▸ hadoop ▸ hdfs ▸ tmp ▸ dfs ▸ data下面
(我的Hadoop安装的这个鬼路径导致我在不带脑子的情况下我根本想不起来我的Hadoop安装在哪里!)
cd /usr/local/Cellar/hadoop/3.1.2/
./sbin/start-all.sh
mac环境下的Hadoop先搁置,好好弄自己的docker
docker hadoop
WARNING: HADOOP_SECURE_DN_USER has been replaced by HDFS_DATANODE_SECURE_USER. Using value of HADOOP_SECURE_DN_USER.
解决:https://blog.51cto.com/865516915/2150562
其实就是改一下第二行。
正文
大数据技术原理与应用 实验二
题目如下:
编程实现以下指定功能,并利用Hadoop提供的Shell命令完成相同任务:
(1) 向HDFS中上传任意文本文件,如果指定的文件在HDFS中已经存在,由用户指定是追加到原有文件末尾还是覆盖原有的文件;
(2) 从HDFS中下载指定文件,如果本地文件与要下载的文件名称相同,则自动对下载的文件重命名;
(3) 将HDFS中指定文件的内容输出到终端中;
(4) 显示HDFS中指定的文件的读写权限、大小、创建时间、路径等信息;
(5) 给定HDFS中某一个目录,输出该目录下的所有文件的读写权限、大小、创建时间、路径等信息,如果该文件是目录,则递归输出该目录下所有文件相关信息;
(6) 提供一个HDFS内的文件的路径,对该文件进行创建和删除操作。如果文件所在目录不存在,则自动创建目录;
(7) 提供一个HDFS的目录的路径,对该目录进行创建和删除操作。创建目录时,如果目录文件所在目录不存在则自动创建相应目录;删除目录时,由用户指定当该目录不为空时是否还删除该目录;
(8) 向HDFS中指定的文件追加内容,由用户指定内容追加到原有文件的开头或结尾;
(9) 删除HDFS中指定的文件;
(10) 删除HDFS中指定的目录,由用户指定目录中如果存在文件时是否删除目录;
(11) 在HDFS中,将文件从源路径移动到目的路径。
解答如下
我们可以使用判断语句,若是已存在名为guo.txt的文件,则命名为guo2.txt。如图所示,guo.txt已存在,故将文件自动重命名为guo2.txt:
if $(hadoop fs -test -e file);then $(hadoop fs -copyToLocal guo.txt /guo.txt); else $(hadoop fs -copyToLocal guo.txt /guo2.txt); fi
3.1.5 给定HDFS中某一个目录,输出该目录下的所有文件的读写权限、大小、创建时间、路径等信息,如果该文件时目录,则递归输出该目录下所有文件相关信息。
可以使用ls -R -h命令,查找根目录下的文件:
hadoop fs -ls -R -h /