步骤一:查看hadoop存储信息
首先启动hadoop平台,进入到192.168.12.100:50070,根据下图步骤查看文件的信息。刚开始登入是空!
注:这里我在重新说明一次,hadoop到官网下载,千万不要下载错了!!!
下载时,一定要选择Binary版本。
步骤二:创建hdfs demo
1)打开eclipse,创建java project,并导入hadoop包
2)下面将hdfs和commmon两个文件夹下的lib和目下的jar全部导入。切记,这两个文件一定要全部导入。
注:如果不想这样导入jar包,可以使用maven,一个自动导包的工具,也是一个项目管理工具。这个需要配置环境,想要了解的,可以看下载的链接。
下载并配置maven(window系统)
https://jingyan.baidu.com/article/3065b3b6a00792becef8a46c.html
Eclipse配置maven
https://www.cnblogs.com/tangshengwei/p/6341462.html
如果初学者,建议使用我下面交给大家的方式!!!
下面提示一下jar的路径:hadoop2.9.2—share—hadoop—common/hdfs。
步骤三:文件操作——前期准备
这里,我不贴代码,想要看代码的,可以到附件看!
步骤四:文件操作——文件上传
1)查看文件是否上传成功!
2)查看流式上传是否成功
步骤五:文件操作——文件下载
1)文件下载和文件流式下载
下载前
下载后
2)指定从某个字节读取,并下载
使用文件流读取,并下载
从第2个字节之后读取
打印读取的内容
步骤六:文件操作——创建目录
创建目录
执行效果:
java控制台执行效果
hadoop平台执行效果
步骤七:文件操作——删除目录
删除目录
hadoop下已经没有mkdir目录
步骤八:文件操作——打印指定路径下的目录或者文件信息(不可递归)
执行效果
步骤九:文件操作——打印指定路径下的文件信息(不好含目录、可递归性)
执行效果